9.1 Determinantenfunktionen
Seien \(K\) ein Körper, \(V\) ein \(K\)-Vektorraum, \(n\ge 0\). Wir beginnen damit, einige Eigenschaften festzuhalten, die die Abbildung \(A\mapsto \det (A)\) sinnvollerweise haben sollte. Auch wenn wir nicht jede dieser Eigenschaften einzeln motivieren, passen sie alle zu Operationen, die wir schon vorher betrachtet haben (speziell: elementare Spaltenumformungen). Wie wir später sehen werden, passen sie auch gut zu den in der Einleitung des Kapitels beschriebenen Eigenschaften, die wir letztlich für die Determinante einer Matrix haben möchten.
Danach werden wir uns als erstes überlegen, dass es bis auf Skalierung höchstens eine Determinantenfunktion geben kann. Diese Eindeutigkeitsaussage wird uns später mehrfach von Nutzen sein. Die Existenz beweisen wir dann, indem wir mit der Leibniz-Formel konkret eine Determinantenfunktion angeben.
Wir betrachten den Vektorraum \(V^n = V\times \cdots \times V\) (\(n\) Kopien) mit der komponentenweisen Addition und Skalarmultiplikation. Im Fall \(V=K^n\), der für uns der wichtigste Fall sein wird, betrachten wir Elemente von \(K^n\) wie üblich als Spaltenvektoren und identifizieren \((K^n)^n\), also die Menge aller \(n\)-Tupel von solchen Spaltenvektoren, mit dem Raum \(M_{n\times n}(K)\) der \((n\times n)\)-Matrizen über \(K\), indem wir die \(n\) Spaltenvektoren nebeneinander in eine Matrix schreiben.
9.1.1 Eindeutigkeit und Existenz der Determinante
Seien \(n\in \mathbb N\) und seien \(V\) und \(W\) Vektorräume über \(K\).
Eine Abbildung \(\delta \colon V^n\rightarrow W\) heißt multilinear, falls für alle \(i\in \{ 1, \dots , n \} \) und alle \(v_1\), …, \(v_{i-1}\), \(v_{i+1}\), …, \(v_n\in V\) die Abbildung
\[ V\rightarrow W, \qquad v \mapsto \delta (v_1,\dots , v_{i-1},v,v_{i+1},\dots , v_n) \]eine lineare Abbildung ist.
Eine multilineare Abbildung \(V^n\rightarrow W\) heißt alternierend, falls für alle \(v_1, \dots , v_n\in V\), so dass \(i\ne j\) existieren mit \(v_i = v_j\), gilt:
\[ \delta (v_1,\dots , v_n)=0. \]
Die Menge aller multilinearen Abbildungen sowie die Menge aller alternierenden multilinearen Abbildungen \(V^n\rightarrow W\) sind \(K\)-Vektorräume (mit der üblichen Addition und Skalarmultiplikation für Abbildungen, d.h. diese Mengen sind Untervektorräume von \(\operatorname{Abb}(V^n, W)\)).
Für \(n {\gt} 1\) sind multilineare Abbildungen \(V^n\to W\) abgesehen von der Nullabbildung nicht linear!
Die Bezeichnung alternierend weist darauf hin, dass multilineare Abbildungen mit dieser Eigenschaft ihr Vorzeichen ändern, wenn man zwei ihrer Argumente vertauscht. Genauer gilt das folgende Lemma:
Wir verwenden dieselben Bezeichnungen wie oben. Für die folgenden Eigenschaften
\(\delta \) ist alternierend,
für alle linear abhängigen Familien \(v_1, \dots , v_n\in V\) gilt: \(\delta (v_1, \dots , v_n)=0\),
bei Vertauschung zweier Einträge ändert sich der Wert von \(\delta \) um das Vorzeichen, d.h. für alle \(i\ne j\) und alle \(v_1, \dots , v_n\in V\) gilt
\[ \delta (v_1, \dots , v_n) = - \delta (v_1, \dots , v_j, \dots , v_i, \dots , v_n), \]für alle \(\sigma \in S_n\), \(v_1, \dots , v_n\in V\) gilt
\[ \delta (v_{\sigma (1)}, \dots , v_{\sigma (n)}) = \operatorname{sgn}(\sigma ) \delta (v_1, \dots , v_n), \]
gilt (i) \(\Leftrightarrow \) (ii) \(\Rightarrow \) (iii) \(\Leftrightarrow \) (iv). Wenn \(1+1\ne 0\) in \(K\) ist, so sind alle vier Eigenschaften äquivalent.
Es gelte (i), und es sei \(v_1, \dots , v_n\in V\) eine linear abhängige Familie von Vektoren in \(V\). Wir wollen zeigen, dass \(\delta (v_1, \dots , v_n)=0\). Sei dazu \(\sum _{i=1}^n a_i v_i = 0\) eine nicht-triviale Darstellung des Nullvektors als Linearkombination der \(v_i\). Um die Notation zu vereinfachen, nehmen wir an, dass \(a_1\ne 0\) ist. In den anderen Fällen argumentiert man analog. Dann gilt
wobei wir im ersten Schritt Eigenschaft (i) und im zweiten und letzten Schritt die Linearität in der ersten Komponente ausgenutzt haben. Es folgt \(\delta (v_1, v_2, \dots , v_n)=0\).
Dass umgekehrt (i) aus (ii) folgt, ist klar.
Wir zeigen nun (i) \(\Rightarrow \) (iii). Wir rechnen
und daraus folgt (iii).
Aus (iv) folgt Eigenschaft (iii), weil die Transposition \((i\, j)\) das Signum \(-1\) hat. Weil man jede Permutation als Produkt von Transpositionen schreiben kann (Lemma 8.41), folgt auch (iv) aus (iii).
Schließlich zeigen wir noch, dass (iii) \(\Rightarrow \) (i) gilt, wenn im Körper \(K\) das Element \(1+1\) von \(0\) verschieden ist. Sind \(v_1, \dots , v_n\) und \(i\ne j\) mit \(v_i=v_j\) gegeben, so haben wir wegen (iii):
weil wegen \(v_i=v_j\) die Vertauschung des \(i\)-ten und \(j\)-ten Eintrags das gegebene Tupel von Vektoren nicht ändert. Es folgt \((1+1)\cdot \delta (v_1, \dots , v_n) = 0\), mit unserer Voraussetzung an \(K\) also \(\delta (v_1, \dots , v_n) = 0\).
Als unmittelbare Konsequenz aus der Definition erhalten wir
Sei \(\delta \colon V^n\to W\) multilinear und alternierend. Dann gilt
für alle \(v_1, \dots , v_n\in V\), \(a\in K\) und \(i\ne j\).
Es gilt
wegen der Linearität im \(i\)-ten Eintrag, und weil \(\delta \) alternierend und nach Voraussetzung \(i\ne j\) ist.
Auch wenn diese Feststellung einfach ist, ist sie sehr wichtig, und wir halten den Spezialfall \(V=K^n\) noch einmal gesondert fest:
Sei \(V = K^n\) und \(\delta \colon (K^n)^n = M_n(K) \to W\) multilinear und alternierend. Seien \(A, A^\prime \in M_n(K)\).
Geht \(A^\prime \) aus \(A\) durch eine elementare Spaltenumformung vom Typ I hervor (Addieren des Vielfachen einer Spalte zu einer anderen Spalte), so gilt \(\delta (A^\prime )=\delta (A)\).
Geht \(A^\prime \) aus \(A\) durch eine elementare Spaltenumformung vom Typ II hervor (Vertauschen zweier Spalten), so gilt \(\delta (A^\prime )=-\delta (A)\).
Geht \(A^\prime \) aus \(A\) durch eine elementare Spaltenumformung vom Typ III hervor (Multiplikation einer Spalte mit \(a\in K^\times \)), so gilt \(\delta (A^\prime )= a \delta (A)\).
Teil (1) folgt direkt aus dem vorherigen Lemma, Teil (2) folgt aus Lemma 9.2, und Teil (3) folgt aus der Multilinearität.
Wir schränken uns nun auf den Fall ein, dass \(n=\dim (V)\) und \(W=K\) ist. Der wichtigste Fall ist, wie schon erwähnt, der Fall des Standardvektorraums \(V=K^n\), wo wir \(V\) als den Matrizenraum \(M_{n\times n}(K)\) betrachten.
Seien \(K\) ein Körper und \(V\) ein endlich-dimensionaler \(K\)-Vektorraum. Sei \(n = \dim V\). Eine Determinantenfunktion auf \(V\) ist eine alternierende multilineare Abbildung \(V^n\rightarrow K\).
Eine Determinantenfunktion \(\Delta \) heißt nicht-trivial, wenn \(\Delta \) nicht die Nullabbildung ist.
Wir bezeichnen den Vektorraum aller Determinantenfunktionen auf \(V\) mit \(\mathscr D_V\).
Die zu Beginn erwähnte Eindeutigkeitsaussage können wir nun formulieren als
Sei \(V\) ein endlich-dimensionaler \(K\)-Vektorraum und \(\mathscr D_V\) der Vektorraum der Determinantenfunktionen \(V^n\to K\). Dann gilt \(\dim \mathscr D_V \le 1\).
Mit anderen Worten: Ist \(\Delta \) eine nicht-triviale und \(\Delta ^\prime \) irgendeine Determinantenfunktion \(V^n\to K\), so existiert ein eindeutig bestimmtes Element \(a\in K\) mit \(\Delta ^\prime = a\Delta \). (Der Satz lässt auch die Möglichkeit zu, dass es gar keine nicht-triviale Determinantenfunktion gibt; wir werden aber sehen, dass \(\dim \mathscr D_V=1\) gilt.)
Wir können ohne Einschränkung den Fall \(V=K^n\) betrachten. Denn im allgemeinen Fall liefert die Wahl einer Basis von \(V\) einen Koordinatenisomorphismus \(c\colon V\stackrel{\sim }{\smash {\longrightarrow }\rule{0pt}{0.4ex}}K^n\). Dieser induziert einen Isomorphismus
von \(K\)-Vektorräumen.
Wir betrachten nun die Abbildung \(\varepsilon \colon \mathscr D_V\to K\), \(\Delta \mapsto \Delta (E_n)\). Es genügt dann zu zeigen, dass \(\varepsilon \) injektiv ist. Die Abbildung \(\varepsilon \) ist ein Homomorphismus von \(K\)-Vektorräumen, also müssen wir nur zeigen, dass \(\varepsilon \) trivialen Kern hat. Sei dazu \(\Delta \in \operatorname{Ker}(\varepsilon )\), d.h. \(\Delta \) ist eine Determinantenfunktion mit \(\Delta (E_n)=0\). Wir wollen zeigen, dass \(\Delta (A)=0\) für alle \(A\in M_{n\times n}(K)\) gilt.
Ist \(A\) nicht invertierbar, so folgt das aus Lemma 9.2.
Sei nun \(A\) invertierbar: Wir können dann \(A\) schreiben als Produkt einer Diagonalmatrix \(D\) der Form \(D=\operatorname{diag}(1, \dots , 1, d^\prime )\) und einer Matrix \(C\in SL_n(K)\), siehe Satz 8.34. Die Matrix \(DC\) entsteht aus \(D\) durch elementare Spaltenumformungen (durch Multiplikation von rechts erhalten wir die Spaltenversion von Bemerkung 5.37), daher folgt aus Lemma 9.3, dass
wobei wir im letzten Schritt ausgenutzt haben, dass \(\Delta \) im letzten Eintrag linear ist. Nach Voraussetzung gilt \(\Delta (E_n) = 0\), also auch \(\Delta (A) = 0\), wie gewünscht.
Die Abbildung \(\det \colon M_{n\times n}(K)\rightarrow K\), die gegeben ist durch
ist eine nichttriviale Determinantenfunktion auf \(K^n\) vermöge der oben angegebenen Identifikation \((K^n)^n = M_{n\times n}(K)\). Insbesondere gilt \(\dim \mathscr D_V =1\) für jeden endlich-dimensionalen \(K\)-Vektorraum \(V\).
Wir nennen \(\det (A)\in K\) die Determinante der Matrix \(A\).
Der »Insbesondere …«-Teil folgt, weil eine Basiswahl von \(V\) einen Isomorphismus \(\mathscr D_{V}\cong \mathscr D_{K^n}\) induziert, vergleiche den Beginn des Beweises von Satz 9.6.
Wir prüfen nach, dass \(\det \) die angegebenen Eigenschaften hat. Jedenfalls gilt \(\det (E_n) = 1\), da in diesem Fall nur die Permutation \(\operatorname{id}\) zu der angegebenen Summe beiträgt. Also ist \(\det \) nicht-trivial.
Um die Multilinearität zu zeigen, erinnern wir an die Bemerkung, dass die Summe multilinearer Funktionen \(V^n\to K\) wieder multilinear ist. Es genügt also einzusehen, dass alle Abbildungen
für eine fixierte Permutation \(\sigma \) multilinear sind, und das folgt direkt aus dem Distributivgesetz in \(K\).
Es bleibt zu zeigen, dass die Abbildung \(\det \) alternierend ist. (Zwar ist die Summe alternierender Funktionen wieder alternierend, allerdings sind die einzelnen Summanden keine alternierenden Funktionen, sondern nur die ganze Summe; wir müssen daher alle Summanden zusammen betrachten.) Sei also eine Matrix \(A = (a_{ij})_{i,j}\) gegeben, in der die Spalten \(j\) und \(j^\prime \) (für \(j\ne j^\prime \)) übereinstimmen. Wir wollen zeigen, dass \(\det (A) = 0\) ist.
Dazu betrachten wir die Transposition \(\tau = (j\, j^\prime )\in S_n\). Sei \(A_n\subset S_n\) die Teilmenge aller Permutationen, die Signum \(1\) haben (mit anderen Worten: \(A_n\) ist der Kern des Signum-Homomorphismus und daher sogar eine Untergruppe, die sogenannte alternierende Gruppe). Wir zerlegen \(S_n\) als die disjunkte Vereinigung von \(A_n\) und dem Komplement \(S_n\setminus A_n\). Die Abbildung
ist eine Bijektion. Denn \(\operatorname{sgn}(\tau \sigma ) = \operatorname{sgn}(\tau )\operatorname{sgn}(\sigma ) = -\operatorname{sgn}(\sigma )\), so dass die Abbildung tatsächlich Elemente aus \(A_n\) in die Menge \(S_n\setminus A_n\) abbildet, und eine Umkehrabbildung ist gegeben durch \(\sigma \mapsto \tau \sigma \) – schließlich ist \(\tau ^2 = \operatorname{id}\) die triviale Permutation. Wir können die Summe in der Leibniz-Formal für \(\det (A)\) also zerlegen als
Da wir hier die Permutationen nach dem Signum sortiert haben, tritt die Signumsfunktion in diesem Ausdruck nicht mehr explizit auf; wir müssen nur die zweite Summe von der ersten abziehen.
Weil \(a_{i, \tau \sigma (i)} = a_{i, \sigma (i)}\) für alle \(\sigma \in S_n\) und alle \(i\) gilt (für \(\sigma (i)\not \in \{ j, j^\prime \} \) ist ja sogar \(\sigma (i) = \tau \sigma (i)\), und im anderen Fall benutzen wir unsere Voraussetzung, dass die \(j\)-te und \(j^\prime \)-te Spalte von \(A\) übereinstimmen), sind diese Summen gleich, die Differenz ist also \(=0\).
\(n=1\). In diesem Fall hat die Matrix \(A = (a)\) nur einen einzigen Eintrag, und das ist ihre Determinante: \(\det (A) = a\). Wenn wir \(M_{1}(K) = K\) identifizieren, ist also \(\det = \operatorname{id}_K\).
\(n=2\). Für \((2\times 2)\)-Matrizen finden wir den Ausdruck aus Abschnitt 2.5 bzw. Beispiel 5.56 wieder:
\[ \det \left( \begin{array}{cc} a & b \\ c & d \end{array} \right) = ad - bc. \]\(n=3\). Im Fall von \((3\times 3)\)-Matrizen kann man auch noch alle Permutationen auflisten und kommt zu der Formel
\[ \det \left( \begin{array}{ccc} a & b & c \\ d & e & f \\ g & h & i \end{array} \right) = aei + bfg + cdh - ceg - afh - bdi, \]die auch als die Regel von Sarrus (nach dem französischen Mathematiker Pierre-Frédéric Sarrus (1798–1861)) bezeichnet wird. Man kann die Regel von Sarrus visuell darstellen, wenn man die ersten beiden Spalten der Matrix noch einmal rechts anfügt. Dann werden die Produkte über die grünen Balken addiert, die über die roten Balken werden subtrahiert.
Für \(n\ge 4\) ist es nicht mehr so einfach (denn dann gibt es schon \(24\) Permutationen, und nicht mehr so ein explizites Schema, um sie alle aufzulisten)! Auch für \(n=3\) ist diese Formel normalerweise nicht die beste Möglichkeit, die Determinante auszurechnen!
Ist \(A = (a_{ij})_{i,j}\) eine obere Dreiecksmatrix (d.h. \(a_{ij} = 0\) für alle \(i {\gt} j\)), so ist die Determinante von \(A\) das Produkt der Diagonaleinträge: \(\det (A) = a_{11}\cdot \cdots \cdot a_{nn}\). Genauso ist es natürlich für untere Dreiecksmatrizen. In beiden Fällen ist \(\sigma = \operatorname{id}\) die einzige Permutation, die einen Beitrag zur Summe in der Leibniz-Formel liefert. Alternativ (und fast noch einfacher) kann man elementare Spaltenumformungen anwenden. Ist \(A\) nicht invertierbar, so ist sowieso \(\det (A)=0\). Andernfalls kann man \(A\) durch Spaltenumformungen vom Typ I auf Diagonalgestalt bringen; dadurch ändert sich die Determinante nicht. Dann wendet man Spaltenumformungen vom Typ III an und erhält \(\det (A)\) als das Produkt aller Diagonalelemente von \(A\) mit \(\det (E_n)=1\).
Vielleicht sollte der Vollständigkeit halber auch der Fall \(n=0\) erwähnt werden; dieser ist natürlich nur von rein formalem Interesse. Weil es genau eine (bijektive) Abbildung \(\emptyset \to \emptyset \) gibt, hat die Summe der Leibniz-Formel einen Summanden, das leere Produkt hat den Wert \(1\), also ist die Determinante der einzigen Matrix der Größe \(0\times 0\) das Einselement von \(K\).
Wie berechnet man eine Determinante?
Fast immer ist der Gauß-Algorithmus die beste Methode, um eine Determinante konkret auszurechnen. Genauer kann und sollte man sowohl Zeilen- als auch Spaltenumformungen benutzen, um die gegebene Matrix auf eine obere oder untere Dreiecksmatrix zu bringen (Lemma 9.3, Satz 9.18). Bei Umformungen vom Typ II und III ist natürlich zu beachten, wie sich die Determinante jeweils verändert.
Auch die anderen Methoden, die wir später kennenlernen (zum Beispiel der Laplacesche Entwicklungssatz) eignen sich nur in Ausnahmefällen, um eine Determinante tatsächlich auszurechnen.
Anders ist es (manchmal), wenn man theoretische Überlegungen über eine Determinante anstellt und/oder dann, wenn die betrachtete Matrix Variablen enthält, die die Anwendung des Gauß-Algorithmus erschweren.
Für eine Permutation \(\sigma \in S_n\) mit zugehöriger Permutationsmatrix \(P_\sigma \) ist \(\det (P_\sigma ) = \operatorname{sgn}(\sigma )\) (wobei hier \(\operatorname{sgn}(\sigma )\) als Element des Grundkörpers \(K\) aufzufassen ist).
Begründung. Wir schreiben \(\sigma \) als Produkt von Transpositionen, etwa mit \(r\) Faktoren. Dementsprechend können wir \(P_\sigma \) als Produkt der zugehörigen Permutationsmatrizen schreiben. Eine Matrix von rechts mit der Permutationsmatrix zu einer Transposition zu multiplizieren, bewirkt die Vertauschung zweier Spalten. Das bedeutet: Wir können \(P_\sigma = E_n P_\sigma \) aus der Einheitsmatrix erhalten, indem wir \(r\)-mal zwei Spalten vertauschen. Es folgt \(\det (P_\sigma ) = (-1)^r = \operatorname{sgn}(\sigma )\). Alternativ könnte man die Leibniz-Formel für \(P_{\sigma }\) anwenden; nur für die Permutation \(\sigma ^{-1}\) erhält man einen Beitrag, und zwar \(\operatorname{sgn}(\sigma ^{-1}) \cdot 1 = \operatorname{sgn}(\sigma )\).
Sei \(V\) ein \(n\)-dimensionaler \(K\)-Vektorraum, und sei \(\mathscr B\) eine Basis von \(V\). Dann ist die Abbildung \(\Delta _{\mathscr B}\colon V^n \rightarrow K\), \((v_1, \dots , v_n) \mapsto \det A\), wobei \(A\) die Matrix mit den Spalten \(c_{\mathscr B}(v_1), \dots , c_{\mathscr B}(v_n)\) ist, eine nichttriviale Determinantenfunktion auf \(V\).
Ist \(\mathscr C\) eine weitere Basis von \(V\), so gilt
Es ist klar, dass \(\Delta _\mathscr B\) eine nicht-triviale alternierende multilineare Abbildung ist.
Weil \(\dim \mathscr D_V = 1\) ist, genügt es, den zweiten Teil für ein einziges Tupel \((v_1,\dots , v_n)\) zu überprüfen, auf dem \(\Delta _{\mathscr B}\) nicht verschwindet. Schreiben wir \(\mathscr B= (b_1, \dots , b_n)\), so ist \(\Delta _\mathscr B(b_1, \dots , b_n) = \det (E_n)=1\), und
und das liefert die Behauptung.
9.1.2 Eigenschaften der Determinante
Wir fixieren die Matrix \(A\) und betrachten die Abbildung \(M_n(K)\to K\), \(B\mapsto \det (AB)\). Diese Abbildung ist multilinear und alternierend in den Spalten von \(B\). Denn ist eine Spalte von \(B\) eine Linearkombination \(ab+a^\prime b^\prime \) mit \(a,a^\prime \in K\), \(b,b^\prime \in K^n\), dann ist die entsprechende Spalte von \(AB\) die Linearkombination \(aAb+a^\prime Ab^\prime \). Die entsprechenden Eigenschaften der Determinante übertragen sich deshalb auf die hier betrachtete Funktion.
Es gibt also nach Satz 9.6 eine Zahl \(a\in K\), so dass
Setzen wir \(B= E_n\) ein, so sehen wir, dass \(a=\det (A)\) gelten muss. Das liefert genau die Behauptung des Satzes.
Alternativ kann man den Produktsatz durch eine explizite Rechnung mit der Leibniz-Formel beweisen (das ist nicht so elegant wie der obige Beweis (finde ich), aber weniger lästig, als man denken würde).
Allgemeiner gilt die Formel von Cauchy-Binet. Seien \(A\in M_{m\times n}(K)\), \(B\in M_{n\times m}(K)\), sei \(\mathcal M\) die Menge aller \(m\)-elementigen Teilmengen von \(\{ 1, \dots , n\} \), und sei für \(M\in \mathcal M\) einerseits \(A_M\in M_m(K)\) die Matrix, die aus den Spalten von \(A\) mit Spaltenindex in \(M\), und andererseits \(B_M\in M_m(K)\) die Matrix, die aus den Zeilen von \(B\) mit Zeilenindex in \(M\) besteht. Dann gilt
Im Fall \(m=n\) hat die Summe nur ein Element und die Formel ist genau der Produktsatz für die Determinante eines Produkts quadratischer Matrizen.
Übungsaufgabe: Was sagt die Cauchy-Binet-Formel im Fall \(m {\gt} n\) aus, und warum ist sie auch in diesem Fall gültig?
In ähnlicher Weise wie Satz 9.11 kann man zeigen, dass für eine Blockmatrix der Form \(\begin{pmatrix} A & B \\ 0 & D \end{pmatrix}\) für \(A\in M_r(K)\), \(B\in M_{r\times s}(K)\), \(D\in M_s(K)\) gilt, dass
Zum Beweis fixieren wir \(B\) und \(D\) und betrachten die Abbildung
die multilinear und alternierend in den Spalten von \(A\) ist. Für \(A=E_r\) ist
Es ist noch zu zeigen, dass diese Matrix Determinante \(\det (D)\) hat. Dazu kann man auch den Satz über die Eindeutigkeit von Determinantenfunktionen bis auf Vielfache anwenden und nun die Abbildung
betrachten, die multilinear und alternierend in den Spalten von \(D\) und mithin ein Vielfaches der Abbildung \(D\mapsto \det (D)\) ist. Durch Einsetzen von \(D=E_s\) erhalten wir das gewünschte Ergebnis.
Ist \(A\in GL_n(K)\), so gilt \(\det (A)\ne 0\) und
Es gilt \(AA^{-1} = E_n\), also nach Satz 9.11:
Das ist genau die Behauptung.
Sei \(A\in M_{n\times n}(K)\). Die Matrix \(A\) ist genau dann invertierbar, wenn \(\det (A)\ne 0\).
Wir haben bereits gesehen, dass \(\det (A)=0\), wenn \(A\) nicht invertierbar ist. Aus Korollar 9.14 folgt andererseits, dass für eine invertierbare Matrix \(A\) die Determinante nicht verschwinden kann.
Insbesondere sehen wir, dass für jede quadratische Matrix \(A\in M_n(K)\) und invertierbare Matrix \(S\in GL_n(K)\) gilt, dass \(\det (SAS^{-1}) = \det (A)\) ist; zueinander konjugierte Matrizen haben dieselbe Determinante.
Wir wissen wegen Satz 9.15, dass \(\det (GL_n(K)) \subseteq K^\times \). Satz 9.11 liefert dann, dass \(\det \colon GL_n(K)\to K^\times \) ein Gruppenhomomorphismus ist.
Es ist klar, dass die Elementarmatrizen \(E_{ij}(a)\) alle Determinante \(=1\) haben (da es sich um obere bzw. untere Dreiecksmatrizen handelt, deren Diagonaleinträge alle \(=1\) sind), sie liegen folglich im Kern des Homomorphismus \(\det \). Da die Gruppe \(SL_n(K)\) nach Definition von diesen Matrizen erzeugt wird, gilt \(SL_n(K) \subseteq \operatorname{Ker}(\det )\).
Ist andererseits \(A\) eine Matrix mit Determinante \(1\), so können wir \(A\) nach Satz 8.34 schreiben als Produkt \(B\, \operatorname{diag}(1, \dots , 1, d)\) mit \(B\in SL_n(K)\). Es gilt dann \(1 = \det (A) = \det (B) \cdot d = d\), also \(A=B\in SL_n(K)\).
Insbesondere zeigt der Produktsatz auch, dass \(d = d^\prime = \det (A)\) in Satz 8.34 gilt; daher sind auch \(B = A\, \operatorname{diag}(1, \dots , 1, \det (A)^{-1})\) und \(C = \operatorname{diag}(1, \dots , 1, \det (A)^{-1}) A\) eindeutig durch \(A\) bestimmt. Oft wird die Gruppe \(SL_n(K)\) definiert als die Gruppe aller invertierbaren Matrizen mit Determinante \(1\). Der obige Satz zeigt, dass das zu unserer Definition (für die es auch gute Gründe gibt) äquivalent ist.
Sei \(A\in M_n(K)\). Dann gilt \(\det (A^t) = \det (A)\).
Ist \(\operatorname{rg}(A) {\lt} n\), so gilt auch \(\operatorname{rg}(A^t) {\lt} n\), und in diesem Fall ist \(\det (A)=0=\det (A^t)\). Andernfalls ist \(A\) invertierbar, und wir können \(A=CD\) mit \(C\in SL_n(K)\) und einer Diagonalmatrix \(D\) schreiben. Dann gilt \(\det (C) = 1 = \det (C^t)\), weil auch \(C^t\) in \(SL_n(K)\) liegt (Beispiel 8.33), und \(\det (D) = \det (D^t)\), weil \(D=D^t\) gilt. Also erhalten wir \(\det (A^t) = \det (D^t C^t) = \det (D^t)\det (C^t) = \det (D)= \det (A)\) aus dem Produktsatz.
Alternativ kann man die im Satz behauptete Gleichheit auch direkt anhand der Leibniz-Formel nachrechnen, indem man ausnutzt, dass \(S_n = \{ \sigma ^{-1}; \sigma \in S_n\} \) und dass \(\operatorname{sgn}(\sigma ^{-1}) =\operatorname{sgn}(\sigma )\) für alle \(\sigma \) gilt.
Die Determinante \(\det \colon M_{n\times n}(K)\rightarrow K\) ist multilinear und alternierend in den Zeilen der Matrix.
Sie verhält sich unter elementaren Zeilenumformungen ebenso wie unter elementaren Spaltenumformungen, das heißt:
Geht \(A^\prime \) aus \(A\) durch eine elementare Zeilenumformung vom Typ I hervor (Addieren des Vielfachen einer Zeile zu einer anderen Zeile), so gilt \(\det (A^\prime )=\det (A)\).
Geht \(A^\prime \) aus \(A\) durch eine elementare Zeilenumformung vom Typ II hervor (Vertauschen zweier Zeilen), so gilt \(\det (A^\prime )=-\det (A)\).
Geht \(A^\prime \) aus \(A\) durch eine elementare Zeilenumformung vom Typ III hervor (Multiplikation einer Zeile mit \(a\in K^\times \)), so gilt \(\det (A^\prime )= a \det (A)\).
Weil \(A\mapsto \det (A)\) multilinear und alternierend in den Spalten von \(A\) ist, ist \(A\mapsto \det (A^t)\) multilinear und alternierend in den Zeilen von \(A\). Der erste Teil des Satzes folgt also daraus, dass \(\det (A) = \det (A^t)\), wie wir in Satz 9.17 gezeigt haben.
Dass sich die Determinante unter elementaren Zeilenumformungen ebenso verhält, wie unter Spaltenumformungen, folgt direkt aus dem Produktsatz, weil wir elementare Zeilenumformungen als Multiplikation von links mit Matrizen der Form \(E_{ij}(a)\), \(P_\tau \), \(\operatorname{diag}(1, \dots , 1, a, 1, \dots 1)\) ausdrücken können, deren Determinante \(1\) bzw. \(-1\) bzw. \(a\) ist.
Den Formalismus der Determinante und speziell den Produktsatz können wir auch benutzen, um Identitäten zwischen den Fibonacci-Zahlen (siehe Beispiel 5.60) herzuleiten. Wir hatten in dem genannten Beispiel für die Fibonacci-Zahlen \(F_n\) gezeigt, dass
gilt, wobei \(A\) die Matrix \(\begin{pmatrix} 1 & 1 \\ 1 & 0 \end{pmatrix}\) bezeichnet. Bilden wir auf beiden Seiten die Determinante, so erhalten wir
das ist die Identität von Cassini.
Als ein Beispiel einer Determinantenberechnung, die häufig nützlich ist, betrachten wir die Vandermonde-Matrix
für \(x_1, \dots , x_n\in K\).
Behauptung. \(\det (A) = \prod _{1\le i {\lt} j\le n} (x_j - x_i)\).
Wir beweisen die Behauptung durch vollständige Induktion nach \(n\). Der Induktionsanfang \(n=1\) ist klar. Zunächst ziehen wir das \(x_1\)-fache der \((n-1)\)-ten Spalte von der \(n\)-ten Spalte ab, dann das \(x_1\)-fache der \((n-2)\)-ten Spalte von der \((n-1)\)-ten Spalte, und so weiter, schließlich das \(x_1\)-fache der ersten von der zweiten Spalte. Die Determinante verändert sich dadurch nicht. Wir haben nun die Matrix
erhalten. Durch oder eine Variante von Bemerkung 9.13 für untere Block-Dreiecksmatrizen (oder durch Entwicklung nach der ersten Zeile, siehe Satz 9.29) erhalten wir
Wir können nun die Induktionsvoraussetzung einsetzen und erhalten die Behauptung.
Eine Anwendung ist ein neuer Beweis von Satz 4.25, der (äquivalent umformuliert) besagt, dass die Koeffizienten einer Polynomfunktion \(K\to K\), \(x\mapsto \sum _{i=0}^{n-1} a_i x^i\), die \(n\) paarweise verschiedene Nullstellen \(x_1, \dots , x_n\in K\) hat, alle gleich \(0\) sein müssen.
Weil die \(x_i\) paarweise verschieden sind, hat die zu diesen Elementen \(x_i\) wie oben gebildete Vandermonde-Matrix \(A\) eine von \(0\) verschiedene Determinante, also ist \(A\) invertierbar. Für den aus den Koeffizienten gebildeten Vektor \(v = (a_0, \dots a_{n-1})^t\in K^n\) gilt aber \(Av = 0\); das ist einfach eine Umformulierung der Voraussetzung, dass alle \(x_i\) Nullstellen dieser Polynomfunktion sind. Es folgt \(v=0\), wie gewünscht.