19.2 Sesquilinearformen
Wir haben im vergangenen Abschnitt das Standardskalarprodukt \(\mathbb R^n\times \mathbb R^n \to \mathbb R\) kennengelernt, das eine zentrale Rolle beim Studium (und der Definition) geometrischer Begriffe wie Abstand und Winkel spielt. Wie es sich auch schon bei anderen Begriffen bewährt hat, wollen wir nun damit beginnen, die essenziellen Eigenschaften dieses Standardskalarprodukts in eine allgemeine Definition zu fassen. Das wird es uns ermöglichen, Resultate über das Standardskalarprodukt direkt in einem allgemeinen Kontext zu beweisen. Das macht einerseits den mathematischen Kern der jeweiligen Ergebnisse besser sichtbar und ist andererseits nützlich um »andere Geometrien« als die euklidische Geometrie zu studieren. Das spielt sowohl in der Mathematik als auch zum Beispiel in der theoretischen Physik eine große Rolle.
Eine wichtige Eigenschaft des Standardskalarprodukts ist die Bilinearität: Die Abbildung \(\mathbb R^n\times \mathbb R^n \to \mathbb R\) ist in beiden Einträgen linear, es handelt sich also um eine bilineare Abbildung (also eine multilineare Abbildung im Sinne von Definition LA1.9.1, deren Definitionsbereich ein Produkt von zwei Faktoren ist).
Um über den komplexen Zahlen einen ähnlich nützlichen Begriff zu definieren, ist es wichtig, eine Variante der Bilinearität direkt mitzuberücksichtigen. Das liegt daran, dass wir auch für endlichdimensionale \(\mathbb C\)-Vektorräume die Länge eines Vektors als eine reelle Zahl definieren möchten. Wenn wir die Formel
für das Standardskalarprodukt auf \(\mathbb R^n\) auch im Fall von komplexen Einträgen \(x_i\), \(y_i\) verwenden würden, wäre der Ausdruck \((x,x)\) nicht unbedingt eine nicht-negative reelle Zahl, aus der wir die Wurzel ziehen könnten. Das ist aber der Fall, wenn wir die Formel folgendermaßen abändern:
wobei für eine komplexe Zahl \(z = a+ib\) mit \(\overline{z} := a-ib\) die sogenannte komplex konjugierte Zahl bezeichnet werde. Es gilt dann \(\overline{z}z = a^2+b^2 \in \mathbb R_{\ge 0}\), so dass für die obige Variante tatsächlich \((x,x)\in \mathbb R_{\ge 0}\) für alle \(x\in \mathbb C^n\) folgt. Wir können dann die Länge des Vektors \(x\) als \(\lVert x\rVert := \sqrt{(x,x)}\) definieren. Weil für eine reelle Zahl (die wir ja auch als Element von \(\mathbb C\) auffassen können) das komplex Konjugierte einfach die Zahl selbst ist, ist das für reelle \(x_i\) und \(y_i\) genau dieselbe Formel wie vorher.
Das löst im wesentlichen das Problem, wie man auf \(\mathbb C^n\) ein »Standardskalarptodukt« definieren kann, allerdings passt das Ergebnis der Diskussion nicht mehr in den Rahmen der bilinearen Abbildungen: Es ist nämlich \((ax,y) = \overline{a}\, (x,y)\) (für \(a\in \mathbb C\), \(x,y\in \mathbb C^n\)), und das ist in der Regel verschieden von \(a\, (x,y)\). Wir müssen daher einen etwas allgemeineren Begriff als den der bilinearen Abbildung betrachten, der – für den Fall der komplexen Zahlen – es uns erlaubt, die Linearitätsbedingung im ersten Eintrag durch eine Bedingung zu ersetzen, die die komplexe Konjugation mit einbaut. Im Fall eines beliebigen Körpers \(K\) könnten wir an dieser Stelle irgendeinen Ringautomorphismus \(\sigma \colon K\to K\) mit \(\sigma = \sigma ^{-1}\), oder äquivalent \(\sigma ^2 := \sigma \circ \sigma =\operatorname{id}_K\), hernehmen. Einen Automorphismus, dessen »Quadrat« (also die Verkettung mit sich selbst) die Identität ist, nennt man auch Involution.
Wir betrachten daher zunächst die folgende Situation:
Es sei \(K\) ein Körper,
und es sei \(\sigma \colon K\to K\) eine Involution, d.h. ein Ringautomorphismus mit \(\sigma \circ \sigma = \operatorname{id}_K\).
Der in der Linearen Algebra 2 wichtige Fall eines Automorphismus \(\sigma \ne \operatorname{id}_K\) ist der, dass \(K=\mathbb C\) und \(\sigma \) die komplexe Konjugation \(\mathbb C\) ist. Wenn Sie möchten, können Sie sich gedanklich im folgenden auf diesen Fall beschränken. Mathematisch gesehen vereinfacht sich dadurch aber nichts und vielleicht ist es sogar transparenter, zunächst beim allgemeinen Fall zu bleiben, damit man besser sieht, welche Aussagen allgemein gelten und wo Charakteristika der komplexen Zahlen benutzt werden (konkret, dass für alle \(z\in \mathbb C\) das Produkt \(z\, \overline{z}\) eine nicht-negative reelle Zahl ist).
Es ist nicht schwer zu zeigen, dass der einzige Körperautomorphismus von \(\mathbb Q\) die Identität \(\operatorname{id}_\mathbb Q\) ist. Mit etwas mehr Aufwand kann man zeigen, dass auch der Körper \(\mathbb R\) keinen nicht-trivialen Automorphismus besitzt. Und auch die endlichen Körper der Form \(\mathbb F_p\) haben diese Eigenschaft. So gesehen ist es gar nicht so einfach, einen Körper \(L\) anzugeben, der Automorphismen \(\ne \operatorname{id}_L\) besitzt.
Weitere Beispiele neben dem Körper \(\mathbb C\) sind die Teilkörper \(\mathbb Q[\sqrt{2}] = \{ a+b\sqrt{2};\ a,b,\in \mathbb Q\} \) von \(\mathbb R\) (mit dem nicht-trivialen Automorphismus \(a+b\sqrt{2}\mapsto a-b\sqrt{2}\)) und \(\mathbb Q[i] = \{ a+ib; a,b,\in \mathbb Q\} \) von \(\mathbb C\) (mit der Einschränkung der komplexen Konjugation als nicht-trivialem Automorphismus). Noch ein ganz anderes Beispiel ist der Körper \(L=\operatorname{Quot}(K[X])\), der Quotientenkörper des Polynomrings über irgendeinem Körper \(K\). (Zum Beispiel induziert der Einsetzungshomomorphismus \(K[X]\to K[X]\), \(X\mapsto -X\), einen Automorphismus \(\sigma \) von \(L\) mit \(\sigma \circ \sigma =\operatorname{id}_L\).)
Die Gruppe aller Automorphismen des Körpers \(\mathbb C\) ist übrigens sehr groß (insbesondere unendlich), sie enthält viel mehr Automorphismen als nur die Identität und die komplexe Konjugation. Diese beiden sind aber die einzigen, die den Körper \(\mathbb R\) in sich abbilden.
Die Frage, welche Automorphismen ein Körper hat, spielt in der Algebra eine große Rolle.
Seien \(V\), \(W\) Vektorräume über \(K\).
Eine Abbildung \(f\colon V\to W\) heißt semilinear (bezüglich des fixierten Automorphismus \(\sigma \) von \(K\)), wenn \(f\) ein Gruppenhomomorphismus der additiven Gruppen \(V\) und \(W\) ist, d.h. \(f(v+v^\prime ) = f(v)+f(v^\prime )\) für alle \(v,v^\prime \in V\), und \(f(av)=\sigma (a) f(v)\) für alle \(a\in K\), \(v\in V\) gilt.
Eine Abbildung \(\beta \colon V\times W\to K\) heißt Sesquilinearform auf \(V\times W\) (bezüglich \(\sigma \)), wenn \(\beta \) semilinear in der ersten und linear in der zweiten Variable, das heißt, für alle \(v\in V\) ist die Abbildung \(W\to K\), \(w\mapsto \beta (v,w)\), linear, und für alle \(w\in W\) ist die Abbildung \(V\to K\), \(v\mapsto \beta (v,w)\), semilinear.
Wir bezeichnen die Menge der Sesquilinearformen auf \(V\times W\) mit \(\operatorname{SLF}(V,W)\) und schreiben \(\operatorname{SLF}(V):=\operatorname{SLF}(V,V)\).
Ganz explizit bedeutet die Definition also, dass für eine Sesquilinearform \(\beta \colon V\times W\to K\) die folgenden Eigenschaften gelten (für \(v,v^\prime \in V\), \(w,w^\prime \in W\), \(a\in K\)):
Die Bezeichnung »…-form« benutzt man um zu sagen, dass es sich um eine Abbildung in den Körper \(K\) handelt (aufgefasst als Vektorraum \(K^1\) über sich selbst). Die Vorsilbe »semi« aus dem Lateinischen bedeutet »halb«, und »sesqui« bedeutet »anderthalb« – in einem Eintrag ist die Abbildung »halb linear«, also semilinear, im anderen linear.
Man findet in der Literatur auch die Konvention, dass eine Sesquilinearform im ersten Eintrag linear und im zweiten semilinear sei. Die Theorie kann man dafür natürlich ganz analog entwickeln, aber man muss gegebenenfalls zwischen den beiden Standpunkten »übersetzen«.
Ist \(\sigma = \operatorname{id}\), so spricht man statt von einer Sesquilinearform von einer Bilinearform. Dies ist ein wichtiger Fall, daher schreiben wir die Definition noch einmal aus:
Seien \(V\), \(W\) Vektorräume über \(K\).
Eine Abbildung \(\beta \colon V\times W\to K\) heißt Bilinearform auf \(V\times W\), wenn \(\beta \) linear in der ersten und in der zweiten Variable ist, das heißt, für alle \(v\in V\) ist die Abbildung \(W\to K\), \(w\mapsto \beta (v,w)\), linear, und für alle \(w\in W\) ist die Abbildung \(V\to K\), \(v\mapsto \beta (v,w)\), linear.
Wir bezeichnen die Menge der Bilinearformen auf \(V\times W\) mit \(\operatorname{BLF}(V,W)\) und schreiben \(\operatorname{BLF}(V):=\operatorname{BLF}(V,V)\).
Eine Bilinearform auf \(V\times W\) ist also nichts anderes als eine bilineare Abbildung \(V\times W\to K\), mit anderen Worten eine multilineare Abbildung mit Wertebereich \(K\), deren Definitionsbereich aus zwei Faktoren besteht.
Die Multiplikation \(K\times K\to K\) ist eine Bilinearform.
Sei \(V\) ein Vektorraum und \(V^\vee \) der Dualraum von \(V\). Die Abbildung
\[ V^\vee \times V\to K,\quad (\lambda , v)\mapsto \lambda (v), \]ist eine Bilinearform.
Das Standardskalarprodukt
\[ \mathbb C^n\times \mathbb C^n\to \mathbb C,\quad ((x_i)_i, (y_i)_i)\mapsto \sum _{i=1}^n \overline{x_i}\, y_i \]ist eine Sesquilinearform (bezüglich der komplexen Konjugation).
Das Standardskalarprodukt
\[ \mathbb R^n\times \mathbb R^n\to \mathbb R,\quad ((x_i)_i, (y_i)_i)\mapsto \sum _{i=1}^n x_iy_i \]ist eine Bilinearform.
Summen von Sesquilinearformen und allgemeiner Linearkombinationen mit Koeffizienten in \(K\) sind wieder Sesquilinearformen. Die Mengen \(\operatorname{SLF}(V, W)\) und \(\operatorname{BLF}(V, W)\) sind daher \(K\)-Vektorräume.
19.2.1 Hermitesche Sesquilinearformen und symmetrische Bilinearformen
Wir interessieren uns besonders für Sesquilinearformen \(V\times V\to K\), die sich im Sinne der folgenden Definition kontrolliert verhalten, wenn man die Argumente vertauscht.
Seien \(V\) ein \(K\)-Vektorraum und \(\beta \colon V\times V\to K\) eine Sesquilinearform.
Die Sesquilinearform \(\beta \) heißt hermitesch, wenn \(\beta (v,w)=\sigma (\beta (w,v))\) für alle \(v,w\in V\) gilt.
Im Falle von Bilinearformen (d.h. wenn \(\sigma =\operatorname{id}_K\) ist), spricht man von einer symmetrischen Bilinearform: Eine Bilinearform \(\beta \colon V\times V\to K\) heißt symmetrisch, wenn \(\beta (v,w)=\beta (w,v)\) für alle \(v,w\in V\) gilt.
Die Bezeichnung hermitesch geht zurück auf Charles Hermite (1822 – 1901).
Eine Bilinearform \(\beta \colon V\times V\to K\), für die \(\beta (v,w)=-\beta (w,v)\) für alle \(v, w\in V\) gilt, nennt man anti-symmetrisch (oder schiefsymmetrisch). Gilt \(1+1\ne 0\) in \(K\), so ist diese Eigenschaft dazu äquivalent, dass \(\beta \) alternierend ist, d.h. dass \(\beta (v,v)=0\) für alle \(v\in V\) gilt. Eine nicht-ausgeartete (Definition 19.15) alternierende Bilinearform nennt man auch eine symplektische Form. Siehe auch Abschnitt 19.9.1. Eine Sesquilinearform \(\beta \colon V\times V\to K\), für die \(\beta (v,w)=-\sigma (\beta (w,v))\) für alle \(v, w\in V\) gilt, nennt man anti-hermitesch (oder schiefhermitesch).
Für jeden Körper \(K\) und \(n\in \mathbb N\) ist
\[ K^n\times K^n\to K,\quad ((x_i)_i^t, (y_i)_i^t)\mapsto \sum _{i=1}^n x_i\, y_i, \]eine symmetrische Bilinearform.
Allgemeiner gilt: Ist \(A=(a_{ij})_{i,j}\in M_n(K)\) eine symmetrische Matrix (d.h. \(A^t=A\) oder konkret ausgedrückt: \(a_{ij} = a_{ji}\) für alle \(i,j\)), so ist
\[ K^n\times K^n\to K,\quad ((x_i)_i^t, (y_i)_i^t)\mapsto \sum _{i,j=1}^n a_{ij} x_i\, y_j, \]eine symmetrische Bilinearform. Mithilfe des Matrizenprodukts können wir diese Summe auch schreiben als \(x^t A y\).
Für jeden Körper \(K\) mit einem Automorphismus \(\sigma \) mit \(\sigma ^2=\operatorname{id}\) und \(n\in \mathbb N\) ist
\[ K^n\times K^n\to K,\quad ((x_i)_i^t, (y_i)_i^t)\mapsto \sum _{i=1}^n \sigma (x_i)\, y_i, \]eine hermitesche Sesquilinearform.
Allgemeiner gilt: Ist \(A=(a_{ij})_{i,j}\in M_n(K)\) eine Matrix, für die \(a_{ij} = \sigma (a_{ji})\) für alle \(i,j\) gilt (wir nennen später solche Matrizen hermitesch, Definition 19.18), so ist
\[ K^n\times K^n\to K,\quad ((x_i)_i^t, (y_i)_i^t)\mapsto \sum _{i,j=1}^n a_{ij} \sigma (x_i)\, y_j, \]eine hermitesche Sesquilinearform. Mithilfe des Matrizenprodukts können wir diese Summe auch schreiben als \(x^\ast A y\), wobei hier \(x^\ast \) den Zeilenvektor \((\sigma (x_1), \dots , \sigma (x_n))\) bezeichne.
Eine andere wichtige Eigenschaft, die wir für Sesquilinearformen betrachten werden, ist die folgende.
Seien \(V\) und \(W\) Vektorräume über \(K\) und \(\beta \colon V\times W\to K\) eine Sesquilinearform. Wir nennen \(\beta \) nicht-ausgeartet, wenn für alle \(v_0\in V\) und \(w_0\in W\) die folgenden beiden Bedingungen erfüllt sind:
falls \(\beta (v_0,w)=0\) für alle \(w\in W\), so gilt \(v_0= 0\),
falls \(\beta (v,w_0)=0\) für alle \(v\in V\), so gilt \(w_0= 0\).
Das Standardskalarprodukt auf \(\mathbb C^n\) ist eine nicht-ausgeartete hermitesche Sesquilinearform (bezüglich der komplexen Konjugation). Das Standardskalarprodukt auf \(\mathbb R^n\) ist eine nicht-ausgeartete symmetrische Bilinearform.
19.2.2 Die Strukturmatrix einer Sesquilinearform
Wie gehabt fixieren wir einen Körper \(K\) mit einem Automorphismus \(\sigma \) mit \(\sigma \circ \sigma =\operatorname{id}_K\).
Wir verallgemeinern die Notation \(-^\ast \), die wir in Beispiel 19.14 (2) für Vektoren benutzt haben, auf beliebige Matrizen. Es handelt sich um die Kombination von Transposition und Anwendung des Automorphismus \(\sigma \).
Seien \(m,n\in \mathbb N\). Für eine Matrix \(A=(a_{ij})_{i,j}\in M_{m\times n}(K)\) bezeichnen wir mit \(A^\ast \in M_{n\times m}(K)\) die Matrix, die aus der transponierten Matrix \(A^t\) entsteht, indem auf jeden Eintrag der Automorphismus \(\sigma \) angewandt wird.
Für \(x = (x_i)_i\in K^n\) ist dann (wenn wir \(x\) als Element von \(M_{n\times 1}(K)\) auffassen) \(x^\ast \) der Zeilenvektor \((\sigma (x_1), \dots , \sigma (x_n))\).
Im Fall \(\sigma = \operatorname{id}_K\) ist einfach \(A^\ast = A^t\) die zu \(A\) transponierte Matrix. Wie man leicht sieht, gilt \((AB)^\ast = B^\ast A^\ast \), wenn man das Matrizenprodukt \(AB\) bilden kann. Insbesondere gilt für jede invertierbare Matrix \(A\in M_n(K)\), dass auch \(A^\ast \) invertierbar ist, und dass \((A^\ast )^{-1} = (A^{-1})^\ast \) ist.
Die folgenden Symmetrieeigenschaften werden im weiteren Verlauf eine große Rolle spielen. Wie wir in Kürze sehen werden, hängen Sie eng mit den entsprechenden Symmetrieeigenschaften von Bilinearformen bzw. Sesquilinearformen zusammen.
Ähnlich wie Vektorraum-Homomorphismen lassen sich auch Sesquilinearformen durch eine Matrix beschreiben, wenn man eine Basis des zugrundeliegenden Vektorraums fixiert. (Man könnte das auch allgemeiner für Sesquilinearformen \(V\times W\to K\) machen, wo also der Definitionsbereich das Produkt zweier verschiedener Vektorräume sein darf; für uns reicht aber der hier betrachtete Fall aus.)
Sei \(V\) ein endlichdimensionaler \(K\)-Vektorraum und \(\mathscr B = (b_1,\dots , b_n)\) eine Basis von \(V\). Die Abbildung
ist ein Isomorphismus von \(K\)-Vektorräumen. Ferner gilt:
Bezeichne \(c_{\mathscr B}\colon V\rightarrow \mathbb K^n\) die Koordinatenabbildung. Dann gilt für alle \(\beta \in \operatorname{SLF}(V)\) und alle \(v,w\in V\):
Die Matrix \(M_{\mathscr B}(\beta )\) heißt die Strukturmatrix der Form \(\beta \) (bezüglich der Basis \(\mathscr B\)).
Man nennt die Strukturmatrix manchmal auch die Fundamentalmatrix oder auch die Gram-Matrix (nach Jørgen Pedersen Gram, 1850–1916) der Sesquilinearform.
Es ist leicht zu sehen, dass die angegebene Abbildung linear ist. Ihre Umkehrabbildung ist die Abbildung, die einer Matrix \(B\) die Sesquilinearform
zuordnet. In der Tat: Ist \(\beta \) gegeben, so ist gerade die Formel im Zusatz nachzuprüfen, und diese ergibt sich direkt aus der Definition der Strukturmatrix und der Sesquilinearität von \(\beta \). Ist andererseits eine Matrix \(B=(b_{ij})_{i,j}\) gegeben und wird eine Bilinearform \(\beta \) durch die obige Formel definiert, so gilt
die Strukturmatrix von \(\beta \) ist also gleich \(B\).
Mittels der Entsprechung von Sesquilinearformen und Matrizen lassen sich auch die Eigenschaften symmetrisch und hermitesch leicht übersetzen.
Eine Sesquilinearform \(\beta \colon V\times V\to K\) ist genau dann hermitesch, falls \(M_{\mathscr B}(\beta )\) hermitesch ist.
Im Fall \(\sigma =\operatorname{id}_K\) erhalten wir: Eine Bilinearform \(\beta \) ist genau dann symmetrisch, falls \(M_{\mathscr B}(\beta )\) symmetrisch ist.
Das ergibt sich unmittelbar aus der Definition der Strukturmatrix.
Ebenso kann man die Eigenschaft, nicht-ausgeartet zu sein, an der Strukturmatrix ablesen. Dabei sehen wir auch, dass es (im endlichdimensionalen Fall) genügt, eine der Eigenschaften (iii), (iv) im folgenden Satz zu verlangen.
Sei \(V\) ein endlichdimensionaler \(K\)-Vektorraum und \(\mathscr B = (b_1,\dots , b_n)\) eine Basis von \(V\). Sei \(\beta \) eine Sesquilinearform auf \(V\). Dann sind äquivalent:
die Matrix \(M_{\mathscr B}(\beta )\) ist invertierbar,
die Form \(\beta \) ist nicht-ausgeartet,
für alle \(v\ne 0\) existiert \(w\in V\) mit \(\beta (v, w) \ne 0\),
für alle \(w\ne 0\) existiert \(v\in V\) mit \(\beta (v, w) \ne 0\).
Wir schreiben zur Abkürzung \(B:= M_\mathscr B(\beta )\). Nach Definition ist (ii) äquivalent dazu, dass (iii) und (iv) gelten.
(i) \(\Rightarrow \) (iii). Sei \(B\) invertierbar, und sei \(v\in V\) mit \(c_\mathscr B(v)^\ast B c_\mathscr B(w) = \beta (v,w)=0\) für alle \(w\in V\). Wegen der Invertierbarkeit von \(B\) folgt \(c_\mathscr B(v)^\ast w = 0\) für alle \(w\in K^n\), und das ist nur für \(c_\mathscr B(v)= 0\), also nur für \(v=0\), möglich.
Ähnlich zeigt man (i) \(\Rightarrow \) (iv). Es folgt also auch (i) \(\Rightarrow \) (ii).
Wenn andererseits \(\beta \) die Eigenschaft (iii) hat, so folgt \((B^\ast c_\mathscr B(v))^\ast = c_\mathscr B(v)^\ast B \ne 0\) für alle \(v\). Daher ist \(B^\ast \) und damit auch \(B\) invertierbar. Damit sehen wir (iii) \(\Rightarrow \) (i). Die noch fehlende Implikation (iv) \(\Rightarrow \) (i) zeigt man ähnlich.
Als nächstes beschreiben wir das Verhalten der Strukturmatrix beim Übergang zu einer anderen Basis.
Sei \(V\) ein endlichdimensionaler \(K\)-Vektorraum und seien \(\mathscr B = (b_1,\dots , b_n)\), \(\mathscr C=(c_1,\dots , c_n)\) Basen von \(V\). Sei \(\beta \) eine Sesquilinearform auf \(V\). Dann gilt
Das ist eine einfache Rechnung, die auf der Basiswechselformel
für \(v\in V\) beruht (Abschnitt LA1.7.3). Wir schreiben zur Abkürzung \(B:= M_{\mathscr B}(\beta )\) und \(C:= M_{\mathscr C}(\beta )\). Damit sehen wir, dass
für alle \(v, w\in V\) gilt. Daraus folgt die Behauptung, indem man \(v = c_i\), \(w=c_j\) setzt, \(i,j=1, \dots , n\).
Dass Matrizen \(B\), \(C\) wie im obigen Satz dieselbe Sesquilinearform beschreiben, ist eine Äquivalenzrelation, der wir in der folgenden Definition einen Namen geben:
19.2.3 Bilinearformen und der Dualraum
Die Theorie der Bilinearformen ist eng mit dem Begriff des Dualraums verknüpft (Abschnitt LA1.7.5). Wir werden am Ende dieses Abschnitts diskutieren, wie man diese Verbindung auch auf den Fall von beliebigen Sesquilinearformen übertragen kann.
Sei \(K\) ein Körper.
Seien \(V\), \(W\) Vektorräume über \(K\). Dann ist die Abbildung
ein Isomorphismus von \(K\)-Vektorräumen, dessen Umkehrhomomorphismus gegeben ist durch
Es ist leicht zu überprüfen, dass beide Abbildungen linear sind, und dass sie zueinander invers sind. Zum Beispiel ist \(\Phi (\Phi ^\prime (f)) = f\), denn
also \(\Phi (\Phi ^\prime (f))(v) = f(v) \in W^\vee \) für alle \(v\in V\), und folglich handelt es sich bei \(\Phi (\Phi ^\prime (f))\) und \(f\) um dieselbe Abbildung \(V\to W^\vee \).
Analog kann man auch den Isomorphismus
betrachten.
Wenn \(W\) endlichdimensional ist und man wie üblich \(W^{\vee \vee }\) mit \(W\) identifiziert, dann ist \(\Psi (\beta ) = \Phi (\beta )^\vee \) die duale Abbildung von \(\Phi (\beta )\). In der Tat ist mit dieser Identifikation \(\Phi (\beta )^\vee (w)\) die Abbildung
also \(\Phi (\beta )^\vee (w) = \Psi (\beta )(w)\in V^\vee \) für alle \(w\in W\). Umgekehrt gilt \(\Phi (\beta ) = \Psi (\beta )^\vee \).
Wir erhalten so eine (etwas) andere Sicht auf die Bedingung, dass \(\beta \) nicht-ausgeartet ist; vergleiche Lemma 19.21.
Sei \(V=W\) endlichdimensional, \(\Phi \) wie im Satz 19.24 und \(\Psi \) wie in (19.1).
Sei \(\beta \colon V\times V\to K\) eine Bilinearform. Dann sind äquivalent:
\(\beta \) ist nicht-ausgeartet,
\(\Phi (\beta )\) ist injektiv,
\(\Phi (\beta )\) ist ein Isomorphismus,
\(\Psi (\beta )\) ist injektiv.
Weil \(\Phi (\beta )\) und \(\Psi (\beta )\) Homomorphismen zwischen endlichdimensionalen Vektorräumen derselben Dimension sind, ist es äquivalent, dass es sich um injektive Homomorphismen bzw. um Isomorphismen handelt. Weil \(\Psi (\beta ) = \Phi (\beta )^\vee \) gilt, ist dann die Äquivalenz von (ii), (iii) und (iv) klar. Andererseits sind (ii) und (iv) genau die beiden Bedingungen aus der Definition des Begriffs nicht-ausgeartet (Definition 19.15).
Ist \(V\) ein endlichdimensionaler Vektorraum und \(\beta \colon V^\vee \times V\to K\) gegeben durch \((\lambda , v)\mapsto \lambda (v)\), so ist \(\Phi (\beta )\) gerade die natürliche Abbildung von \(V\) in den Doppeldualraum \(V^{\vee \vee }\).
Seien \(K\) ein Körper und \(V\), \(W\) Vektorräume über \(K\). Laut der universellen Eigenschaft des Tensorprodukts ist eine Bilinearform \(V\times W\to K\) »dasselbe« wie eine lineare Abbildung \(V\otimes _K W\to K\), genauer: die Abbildung
ist ein Isomorphismus (wobei \(\beta \) die natürliche Abbildung \(V\times W\to V\otimes _KW\) bezeichnet). Diese Sichtweise ist manchmal nützlich, bringt aber hier keine wesentliche Vereinfachung, so dass wir im folgenden nicht darauf zurückgreifen werden.
Sind \(V\) und \(W\) endlichdimensional, so kann man andersherum mit dem zum obigen Isomorphismus dualen Isomorphismus
identifizieren. Dies ist manchmal eine gute Möglichkeit, das Tensorprodukt \(V\otimes _KW\) recht konkret zu beschreiben: Ein Element des Tensorprodukts ist eine Linearform auf dem Raum aller Bilinearformen \(V\times W\to K\), ordnet also jeder Bilinearform ein Element von \(K\) zu. Für einen Elementartensor \(v\otimes w\) ist dies gerade die Abbildung \(\beta \mapsto \beta (v, w)\).
Um in ähnlicher Weise Sesquilinearformen mit dem Dualraum in Verbindung zu bringen, müssen wir in geeigneter Weise berücksichtigen, dass diese im ersten Eintrag semilinear bezüglich des fixierten Automorphismus \(\sigma \) von \(K\) sind.
Wir definieren dazu ausgehend von einem \(K\)-Vektorraum \(V\) den Vektorraum \(V_\sigma \), der in der folgenden Weise aus \(V\) durch Abänderung der Skalarmultiplikation entsteht:
Als additive Gruppe (und insbesondere als Menge) sei \(V_\sigma \) gleich \(V\). Die Skalarmultiplikation definieren wir als
wobei auf der rechten Seite der Ausdruck \(\sigma (a)v\) im Sinne der Skalarmultiplikation auf \(V\) zu verstehen ist. Es ist leicht, nachzuprüfen, dass die Vektorraumaxiome erfüllt sind.
Eine Abbildung \(V\to W\) ist mit dieser Definition genau dann semilinear bezüglich \(\sigma \), wenn sie, als Abbildung \(V_\sigma \to W\) aufgefasst, linear ist. Wenn \(K=\mathbb C\) und \(\sigma \) die komplexe Konjugation ist, schreiben wir auch \(\overline{V}\) statt \(V_\sigma \). (Ist \(\sigma =\operatorname{id}_K\), so ist einfach \(V_\sigma =V\).)
Dann ist für eine semilineare Abbildung \(f\colon V\to W\) die Abbildung \(V_\sigma \to W\), \(v\mapsto f(v)\), eine lineare Abbildung, denn für alle \(a\in K\), \(v\in V\) gilt
Entsprechend ist eine Sesquilinearform \(V\times W\to K\) eine Bilinearform \(V_\sigma \times W\to K\), so dass man alle Aussagen über Sesquilinearformen auf den Fall von Bilinearformen zurückführen kann (allerdings wird aus einer Sesquilinearform mit Definitionsbereich \(V\times V\) eine Bilinearform mit Definitionsbereich \(V_\sigma \times V\), also mit zwei unterschiedlichen Faktoren, und deshalb ist es oft doch praktischer, die Sichtweise der Sesquilinearformen zu verwenden).
Ist \((b_i)_{i\in I}\) eine Basis von \(V\), so ist dieselbe Familie \((b_i)_{i\in I}\) auch eine Basis von \(V_\sigma \). Insbesondere ist \(V_\sigma \) genau dann endlich erzeugt, wenn das für \(V\) gilt, und es ist dann \(\dim V_\sigma = \dim V\). Ist \(f\colon V\to W\) ein Vektorraum-Homomorphismus, so erfüllt dieselbe Abbildung als Abbildung \(V_\sigma \to W_\sigma \) ebenfalls die Homomorphismus-Eigenschaft.
Wir können damit Satz 19.24 in der folgenden Weise auf Sesquilinearformen übertragen.
Seien \(V\), \(W\) Vektorräume über \(K\). Dann ist die Abbildung
ein Isomorphismus von \(K\)-Vektorräumen, dessen Umkehrhomomorphismus gegeben ist durch
Das folgt aus Satz 19.24, indem man \(\operatorname{SLF}(V, W)\) mit \(\operatorname{BLF}(V_\sigma , W)\) identifiziert. Alternativ kann man auch den Beweis von Satz 19.24 »wiederholen«.
Oft kann man, statt diese Konstruktion und Satz 19.29 zu verwenden, direkte Argumente benutzen (und zum Beispiel mit der Strukturmatrix arbeiten), zum Beispiel bei der Diskussion der adjungierten Abbildung, siehe Abschnitt 19.2.5. Der Beweis von Satz 19.32 ist andererseits ein Beispiel, wo die hier erklärte Sichtweise sehr nützlich ist und sich nicht so leicht ersetzen lässt.
Auch Satz 19.25 gilt dann ganz analog.
Entsprechend kann man die Abbildung
betrachten. Es ist dann \(\Psi (\beta ) = \Phi (\beta )^\vee \) die duale Abbildung von \(\Phi (\beta )\), wenn man \(W^{\vee \vee }\) wie üblich mit \(W\) identifiziert.
19.2.4 Das orthogonale Komplement eines Untervektorraums
Sei wie oben \(K\) ein Körper mit einem Automorphismus \(\sigma \) mit \(\sigma \circ \sigma = \operatorname{id}_K\). Sei \(V\) ein endlichdimensionaler \(K\)-Vektorraum und sei \(\beta \) eine hermitesche Sesquilinearform (bezüglich \(\sigma \)) auf \(V\).
Wir haben für den \(\mathbb R\)-Vektorraum \(\mathbb R^n\) (mit dem Standardskalarprodukt) bereits definiert, wann zwei Vektoren zueiander senkrecht genannte werden sollen. Diese Definition überträgt man auf den allgemeinen Fall eines Vektorraums mit einer hermiteschen Sesquilinearform. So nützlich die Definition ist, so wichtig ist es zu beachten, dass sie nur teilweise die geometrische Intuition reflektiert. Zum Beispiel gibt es durchaus (auch nicht-ausgeartete) hermitesche Formen, für die Vektoren \(v\ne 0\) existieren, die zu sich selbst orthogonal im Sinne dieser Definition sind.
Da \(\beta \) als hermitesch vorausgesetzt wird, sind für \(v, w\in V\) die Eigenschaften \(v\perp w\) und \(w\perp v\) äquivalent.
Trotz der Bezeichnung ist \(U^\perp \) im allgemeinen kein Komplementärraum zu \(U\). Im Extremfall \(\beta (v, w) =0\) für alle \(v, w\) ist zum Beispiel \(V^\perp = V\)! Selbst wenn \(\beta \) nicht-ausgeartet ist, kann der Schnitt von \(U\) und \(U^\perp \) nicht-trivial sein (suchen Sie ein Beispiel dafür!). Immerhin hat man dann aber die folgende Dimensionsformel:
Sei \(V\) ein endlichdimensionaler Vektorraum und \(\beta \) eine nicht-ausgeartete hermitesche Form auf \(V\). Sei \(U\subseteq V\) ein Untervektorraum. Dann gilt
Mithilfe des Dualraums ist es einfach, den Satz zu beweisen. Wir betrachten die Abbildung \(\Phi (\beta )\) wie in Satz 19.29. (Für den Fall einer Bilinearform kann man sich auf die etwas einfachere Formulierung zu Beginn von Abschnitt 19.2.3 zurückziehen.)
Im Fall von Sesquilinearformen benutzen wir den Vektorraum \(V_\sigma \), der als Menge (und als additive Gruppe) mit \(V\) übereinstimmt, aber eine modifizierte Skalarmultiplikation hat. Da \(V\) und \(V_\sigma \) als Mengen übereinstimmen, ist eine Teilmenge von \(V\) dasselbe wie eine Teilmenge von \(V_\sigma \). Eine Teilmenge von \(V\) ist genau dann ein Untervektorraum von \(V\), wenn es sich um einen Untervektorraum von \(V_\sigma \) handelt, und in diesem Fall haben diese beiden Untervektorräume dieselbe Dimension. Wir wenden diese Bemerkung an auf \(U^\perp \subseteq V\).
Da \(\beta \) nicht-ausgeartet ist, ist \(\Phi (\beta )\) ein Isomorphismus. Es gilt
es handelt sich also hier gerade um den Kern der Einschränkungsabbildung \(V^\vee \to U^\vee \), \(\lambda \mapsto \lambda _{|U}\). Da die Einschränkungsabbildung surjektiv ist, folgt wie gewünscht
Im Fall des Standardskalarprodukts auf \(\mathbb R^n\) oder auf \(\mathbb C^n\), und allgemeiner im Fall von positiv definiten hermitschen Sesquilinearformen gilt stets \(U\cap U^\perp = 0\). Dann ist die Situation etwas einfacher und insbesondere folgt aus dem Satz, dass sogar \(U\oplus U^\perp = V\) gilt. In diesem Fall ist also das orthogonale Komplement tatsächlich ein Komplementärraum.
Sei \(V\) ein endlichdimensionaler Vektorraum und \(\beta \) eine nicht-ausgeartete hermitesche Form auf \(V\). Sei \(U\subseteq V\) ein Untervektorraum. Dann gilt \((U^\perp )^\perp = U\).
Es ergibt sich direkt aus der Definition, dass \(U\subseteq (U^\perp )^\perp \) gilt. Wegen des vorhergehenden Satzes haben außerdem \(U\) und \((U^\perp )^\perp \) dieselbe Dimension.
19.2.5 Die adjungierte Abbildung eines Endomorphismus
Sei wie oben \(K\) ein Körper mit einem Automorphismus \(\sigma \) mit \(\sigma \circ \sigma = \operatorname{id}_K\). Sei \(V\) ein endlichdimensionaler \(K\)-Vektorraum und sei \(\beta \) eine hermitesche Sesquilinearform (bezüglich \(\sigma \)) auf \(V\).
Ist \(g\colon V\to V\) ein Endomorphismus, so ist die Abbildung
ebenfalls eine Sesquilinearform. Ist \(\beta \) nicht-ausgeartet, so hat andererseits jede Sesquilinearform auf \(V\) diese Form, wie der folgende Satz zeigt.
Sei \(\beta \) eine nicht-ausgeartete Sesquilinearform auf dem endlichdimensionalen Vektorraum \(V\). Dann ist die Abbildung
mit \(\beta _g(v, w) = \beta (v, g(w))\) ein Isomorphismus von \(K\)-Vektorräumen.
Es ist leicht zu sehen, dass die Abbildung linear ist. Wir wissen wegen Satz 19.19, dass der \(K\)-Vektorraum \(\operatorname{SLF}(V)\) Dimension \((\dim V)^2\) hat, ebenso wie \(\operatorname{End}_K(V)\). Weil beide Seiten dieselbe Dimension haben, genügt es zu zeigen, dass die Abbildung injektiv ist. Sei \(g\) ein Endomorphismus von \(V\), für den \(\beta _g\) die Nullabbildung ist. Ist \(w\in V\), so ist also \(\beta (v, g(w)) = 0\) für alle \(v\in V\). Weil \(\beta \) nicht-ausgeartet ist, folgt \(g(w)=0\). Das gilt für alle \(w\in V\), folglich ist \(g\) die Nullabbildung.
Alternativ kann man den Satz auch beweisen, indem man Endomorphismen und Sesquilinearformen durch Matrizen beschreibt. Denn ist \(\mathscr B\) eine Basis von \(V\) und ist \(\Xi \) die Abbildung
so erhalten wir ein kommutatives Diagramm
wobei die linke vertikale Abbildung durch \(g\mapsto M^\mathscr B_\mathscr B(g)\), die rechte vertikale Abbildung durch \(\gamma \mapsto M_\mathscr B(\gamma )\) und die obere horizontale Abbildung durch \(g\mapsto \beta _g\) gegeben ist. Weil \(\beta \) nach Voraussetzung nicht-ausgeartet ist, ist \(M_\mathscr B(\beta )\) invertierbar und folglich \(\Xi \) ein Isomorphismus. Weil die vertikalen Abbildungen ebenfalls Isomorphismen sind, folgt auch auf diesem Weg, dass die Abbildung \(g\mapsto \beta _g\) ein Isomorphismus ist.
Analog kann man einem Endomorphismus \(f\) von \(V\) die Sesquilinearform \((v, w)\mapsto \beta (f(v), w)\) zuordnen. In dieser Weise erhält man eine bijektive semilineare Abbildung \(\operatorname{End}_K(V) \to \operatorname{SLF}(V)\).
Wir wollen nun voraussetzen, dass \(\beta \) hermitesch sei. Man bräuchte das im folgenden Satz noch nicht unbedingt, sollte dann aber zwischen links- und rechtsadjungierter Abbildung unterscheiden. Wir beschränken uns hier deshalb auf den einfacheren Fall.
Sei \(V\) ein endlichdimensionaler \(K\)-Vektorraum mit einer nicht-ausgearteten hermiteschen Sesquilinearform \(\beta \). Sei \(f\in \operatorname{End}_{\mathbb K}(V)\). Dann existiert ein eindeutig bestimmter Endomorphismus \(g\) von \(V\), so dass für alle \(v, w\in V\) gilt:
Es heißt \(g\) die zu \(f\) adjungierte Abbildung; wir bezeichnen die adjungierte Abbildung zu \(f\) mit \(f^\ast \).
Existenz und Eindeutigkeit von \(g\) folgen direkt aus Satz 19.34.
Wir wollen die adjungierte Abbildung noch konkret in Termen der Strukturmatrix von \(\beta \) und der darstellenden Matrix von \(f\) beschreiben, wenn eine Basis \(\mathscr B\) von \(V\) gewählt ist.
Sei \(B= M_\mathscr B(\beta )\), also \(\beta (v,w) = v^\ast B w\), und \(A=M^\mathscr B_\mathscr B(f)\) die darstellende Matrix von \(f\) bezüglich dieser Basis. Dann gilt
also hat die Abbildung mit darstellender Matrix \(B^{-1}A^\ast B\) die gewünschte Eigenschaft. Wegen der Eindeutigkeit der adjungierten Abbildung erhalten wir
Ist \(\mathscr B\) eine Basis, für die \(M_\mathscr B(\beta ) = E_n\) gilt (\(n=\dim (V))\), so vereinfacht sich die Formel am Ende des Satzes weiter zu \(M_\mathscr B^\mathscr B(f^\ast ) = M^\mathscr B_\mathscr B(f)^\ast \). Für die Standardskalarprodukte auf \(\mathbb C^n\) und auf \(\mathbb R^n\) hat die Standardbasis diese Eigenschaft. Siehe auch Abschnitt 19.5.
Mit Satz 19.24 bzw. Satz 19.29 können wir die adjungierte Abbildung zu \(f\) folgendermaßen beschreiben. Sei \(\psi = \Psi (\beta )\) die Abbildung \(V\to V_\sigma ^\vee \), \(w\mapsto (v\mapsto \beta (v, w))\), vergleiche (19.1) bzw. (19.2). Weil \(\beta \) nicht-ausgeartet ist, handelt es sich bei \(\psi \) um einen Isomorphismus. Dann gilt
für alle \(v\in V_\sigma \), die Elemente \(f^\vee (\psi (w))\) und \(\psi (f^\ast (w))\) von \(V_\sigma ^\vee \) stimmen also überein. (Hier ist \(f^\vee \colon V_\sigma ^\vee \to V_\sigma ^\vee \) die Abbildung \(\lambda \mapsto \lambda \circ f\), also die duale Abbildung der Abbildung \(f\colon V_\sigma \to V_\sigma \). Es ist leicht nachzuprüfen, dass es sich bei \(f\) um eine lineare Abbildung \(V_\sigma \to V_\sigma \) handelt. Folglich ist auch die Abbildung \(f^\vee \) ein Homomorphismus \(V_\sigma ^\vee \to V_\sigma ^\vee \).)
Wir können das als ein kommutatives Diagramm
zusammenfassen. Mit anderen Worten gilt
Wenn wir also mittels des Isomorphismus \(\psi \) den Dualraum \(V_\sigma ^\vee \) mit \(V\) identifizieren, dann »ist« \(f^\ast \) nichts anderes als die zu \(f\) duale Abbildung, betrachtet als Endomorphismus von \(V_\sigma ^\vee \).
Wir halten nun noch einige Eigenschaften der adjungierten Abbildung fest.
Sei \(V\) ein endlichdimensionaler \(K\)-Vektorraum mit einer nicht-ausgearteten hermiteschen Form \(\beta \).
Die Abbildung \(\operatorname{End}_{\mathbb K}(V)\rightarrow \operatorname{End}_{\mathbb K}(V)\), \(f\mapsto f^\ast \), ist semilinear und bijektiv. Sie ist ihre eigene Umkehrabbildung, d.h. es gilt \((f^\ast )^\ast = f\) für alle \(f\).
Es gilt \(\operatorname{id}^\ast =\operatorname{id}\) und \((f\circ g)^\ast = g^\ast \circ f^\ast \) für alle \(f, g\in \operatorname{End}_K(V)\).
Es gilt
\[ \operatorname{Ker}(f^\ast ) = (\operatorname{Im}f)^\perp ,\qquad \operatorname{Im}(f^\ast ) = (\operatorname{Ker}f)^\perp , \]und \(\operatorname{rg}f = \operatorname{rg}f^\ast \).
zu (1). Die Verträglichkeit mit der Addition rechnet man unmittelbar nach. Um die adjungierte Abbildung von \(\alpha f\) auszurechnen, rechnen wir (für \(v, w\in V\))
und daran können wir ablesen, dass \((\alpha f)^\ast = \sigma (\alpha ) f^\ast \) gilt. Um die Gleichheit \((f^\ast )^\ast = f\) zu zeigen, benutzen wir, dass die betrachtete Form hermitesch ist. Damit erhalten wir
für \(v, w\in V\), und das bedeutet genau, dass \((f^\ast )^\ast = f\) gilt.
zu (2). Es ist klar, dass \(\operatorname{id}^\ast =\operatorname{id}\) gilt. Die Aussage über die Verkettung folgt aus einer leichten Rechnung.
zu (3). Wir haben, weil die Form nicht-ausgeartet ist,
Die Inklusion \(\operatorname{Im}(f^\ast ) \subseteq (\operatorname{Ker}f)^\perp \) kann man durch eine ähnliche Rechnung überprüfen, die andere Inklusion ist aber nicht so leicht direkt zu zeigen. Man kann entweder erst Teil (3) beweisen und dann mit der Dimension argumentieren, oder Teil (1) auf den Endomorphismus \(f^\ast \) anwenden. Das liefert
wegen \(f^{\ast \ast } = f\) und nach Übergang zum orthogonalen Komplement wegen Korollar 19.33 also
wie gewünscht.
Dass \(\operatorname{rg}(f^\ast ) = \operatorname{rg}(f)\) gilt, folgt dann aus Teil (1) mit Satz 19.32 und der Dimensionsformel für lineare Abbildungen.
Die Gleichheit \((f^\ast )^\ast = f\) können wir auch so ausdrücken, dass nicht nur \((f(v), w) = (v, f^\ast (w))\) gilt (wie in der Definition der adjungierten Abbildung verlangt), sondern auch \((v, f(w)) = (f^\ast (v), w)\). Wir können also \(f\) »sowohl vom linken ins rechte als auch vom rechten ins linke Argument verschieben« und dabei in beiden Fällen durch die gleiche Abbildung \(f^\ast \) ersetzen. Hierfür ist es wichtig, dass wir mit einer hermiteschen Form arbeiten.
Eine besonders interessante Situation ist die, dass ein Endomorphismus \(f\) mit seiner adjungierten Abbildung übereinstimmt:
Wir werden diese Eigenschaft später genauer untersuchen und unter anderem sehen (Spektralsatz für selbstadjungierte Endomorphismen, Theorem 19.107), dass jeder Endomorphismus von \(\mathbb R^n\), der bezüglich des Standardskalarprodukts selbstadjungiert ist, diagonalisierbar ist. Oder in Termen von Matrizen ausgedrückt: Jede symmetrische Matrix über den reellen Zahlen ist diagonalisierbar!