19.3 Symmetrische Bilinearformen, quadratische Formen *
Auf symmetrische Bilinearformen gibt es noch eine andere Sicht, die hier wenigstens kurz erwähnt werden soll. Im gesamten Abschnitt 19.3 fixieren wir einen Körper \(K\), in dem \(1+1\ne 0\) gilt.
Sei \(V\) ein \(K\)-Vektorraum. Ist \(\beta \) eine symmetrische Bilinearform auf \(V\), so ist die Abbildung
eine quadratische Form auf \(V\).
Ist \(q\) eine quadratische Form auf \(V\), so ist die Abbildung
eine symmetrische Bilinearform.
Diese beiden Konstruktionen sind zueinander invers, liefern also eine Bijektion zwischen der Menge der symmetrischen Bilinearformen auf \(V\) und der Menge der quadratischen Formen auf \(V\).
Seien \(a_1, \dots , a_n\in K\). Dann ist die Abbildung
eine quadratische Form auf \(K^n\). Wir bezeichnen diese Form mit \([a_1, \dots , a_n]\). Die Strukturmatrix der zugehörigen Bilinearform bezüglich der Standardbasis ist \(\operatorname{diag}(a_1, \dots , a_n)\).
Ist \(q\) eine quadratische Form, so kann man für \(a\in K\) die Teilmengen
betrachten. Für \(K=\mathbb R\) und \(V=\mathbb R^2\) erhält man so die sogenannten Kegelschnitte, d.h. konkret: Ellipsen, Hyperbeln, Parabeln, und als »ausgeartete Fälle« Geraden oder zwei sich schneidende Geraden.
Sei \(K\) ein Körper, \(V\) ein endlichdimensionaler \(K\)-Vektorraum und \(\beta \) eine symmetrische Bilinearform auf \(V\). Dann existiert eine Basis \(\mathscr B\) von \(V\), so dass \(M_\mathscr B(\beta )\) eine Diagonalmatrix ist.
Wir nennen \(\mathscr B\) dann eine Orthogonalbasis für \(\beta \) (denn je zwei verschiedene Vektoren von \(\mathscr B\) sind zueinander orthogonal).
Ist \(K\) algebraisch abgeschlossen und \(\beta \) eine nicht-ausgeartete symmetrische Bilinearform, dann kann man sogar stets eine Basis \(\mathscr B\) finden, so dass \(M_\mathscr B(\beta )\) die Einheitsmatrix ist.
Seien \((V_1, q_1)\) und \((V_2, q_2)\) quadratische Räume über \(K\). Ein Vektorraum-Isomorphismus \(f\colon V_1\to V_2\) heißt eine Isometrie der quadratischen Räume \((V_1, q_1)\), \((V_2, q_2)\), wenn \(q_2(f(v)) = q_1(v)\) für alle \(v\in V\) gilt.
Wenn eine solche Isometrie existiert, dann schreiben wir auch \((V_1, q_1)\cong (V_2, q_2)\).
Mit dieser Definition können wir Satz 19.43 folgendermaßen ausdrücken: Ist \((V, q)\) ein quadratischer Raum, \(n=\dim (V)\), so existieren \(a_1, \dots , a_n\) und eine Isometrie \((V, q)\cong (K^n, [a_1, \dots , a_n])\). Ist \(K\) algebraisch abgeschlossen, so existiert zu jedem quadratischen Raum \((V, q)\) eine (eindeutig bestimmte) Zahl \(r\) mit \((V, q) \cong (K^n, [1, \dots , 1, 0,\dots , 0])\) mit \(r\) Einsen und \(n-r\) Nullen. Das kann man so lesen, dass über algebraisch abgeschlossenen Körpern die Theorie der quadratischen Formen eher langweilig ist.
Es ist üblich und praktisch, noch kürzer einfach \([a_1, \dots , a_n]\) statt \((K^n, [a_1, \dots , a_n])\) zu schreiben. Entsprechend schreiben wir
wenn eine Isometrie zwischen diesen quadratischen Räumen existiert. Das ist dazu gleichbedeutend, dass die Matrizen \(\operatorname{diag}(a_1, \dots , a_n)\) und \(\operatorname{diag}(b_1, \dots , b_n)\) kongruent sind.
Sind \(a,b\in K^\times \) mit \(a+b\ne 0\), so gilt
Diesen Isomorphismus nennt man auch die Wittsche Relation (nach Ernst Witt).
Man kann auch eine Variante dieses Satzes von Witt für Sesquilinearformen zeigen.
Besonders interessant ist es, die Theorie der quadratischen Formen mit zahlentheoretischen Fragen (und Methoden) zu kombinieren. Ein Beispiel ist der berühmte Satz von Hasse und Minkowski, aus dem die folgende schlagende Aussage folgt:
Sei \(n\ge 5\) und seien \(a_1, \dots , a_n\in \mathbb Q^\times \). Sei \(q\) die quadratische Form
Wir können \(q\) als quadratische Form auf \(\mathbb Q^n\) oder auf \(\mathbb R^n\) betrachten.
Dann sind äquivalent:
Es existiert \(x\in \mathbb Q^n\), \(x\ne 0\), mit \(q(x)=0\).
Es existiert \(x\in \mathbb R^n\), \(x\ne 0\), mit \(q(x)=0\).
Es existieren \(i\) und \(j\) mit \(a_i {\gt}0\) und \(a_j {\lt} 0\) (d.h. die zu \(q\) gehörige nicht-ausgeartete symmetrische Bilinearform ist indefinit, Definition 19.49).
Die Äquivalenz von (ii) und (iii) ist sehr leicht zu zeigen, aber die Äquivalenz zu (i) ist wesentlich schwieriger. Literatur: J. P. Serre, A course in arithmetic, Springer Graduate Texts in mathematics 7, 1973.