11.2 Das Standard-Skalarprodukt auf \(\mathbb R^n\)
Wir betrachten nun als Grundkörper den Körper der reellen Zahlen, und fixieren \(n\in \mathbb N\). Zuerst definieren wir, was wir unter dem Abstand zwischen zwei Punkten in \(\mathbb R^n\) verstehen, und untersuchen diesen Begriff.
11.2.1 Der Abstand zwischen Punkten in \(\mathbb R^n\)
Da Quadrate reeller Zahlen niemals negativ sind, steht unter der Wurzel eine nicht-negative Zahl, und wir können die Wurzel (in \(\mathbb R_{\ge 0}\)) ziehen. Für \(n=1\) erhalten wir \(d(v,w) = \lvert w-v\rvert \), und das ist der Abstand der Punkte \(v,w\) auf der reellen Zahlengerade. Auch in höheren Dimensionrn spiegelt dieser Begriff unsere Anschauung vom Abstand zwischen zwei Punkten wider – einerseits hat er die »üblichen Eigenschaften« einer Abstandsfunktion, andererseits ergibt sich der Begriff in natürlicher Weise aus dem Satz des Pythagoras.
Für höherdimensionale Räume \(\mathbb R^n\) lässt sich der Abstand schrittweise mithilfe des Satzes des Pythagoras in der gewünschten Form ausdrücken:
Die Abstandsfunktion \(d\) hat die folgenden Eigenschaften:
Die ersten beiden Eigenschaften sind klar. Die Dreiecksungleichung besagt anschaulich, dass in dem Dreieck mit Ecken \(u\), \(v\) und \(w\) die Länge der Kante mit Endpunkten \(u\) und \(w\) höchstens so groß ist wie die Summe der beiden anderen Kanten (und man kann sich auch davon überzeugen, dass die Gleichheit nur dann eintreten kann, wenn \(u\), \(v\) und \(w\) auf einer Geraden liegen). Das ist nicht schwierig (aber auch nicht ganz offensichtlich – versuchen Sie es einmal!). Das ganze ist etwas angenehmer aufzuschreiben, nachdem wir den Begriff des Skalarprodukts zweier Vektoren (und die entsprechende Notation) eingeführt haben. Wir verschieben daher den Beweis auf Abschnitt 11.2.3.
Man sagt, eine Menge \(X\) zusammen mit einer Funktion \(d\colon X\times X\to \mathbb R_{\ge 0}\), so dass
\(d(x, y) = 0 \quad \Longleftrightarrow \quad x = y\),
\(d(x, y) = d(y, x)\) und
\(d(x, y) + d(y, z) \ge d(x, z)\)
für alle \(x, y, z\in X\) sei ein metrischer Raum. Die Funktion \(d\) heißt dann eine Metrik oder Abstandsfunktion auf \(X\).
Es gibt noch (viele…) andere Abstandsfunktionen auf \(\mathbb R^n\). Die oben definierte Metrik heißt die euklidische Metrik auf \(\mathbb R^n\). Da sie die Geometrie des Raums, in dem wir uns befinden, definiert, ist es die wichtigste Abstandsfunktion auf \(\mathbb R^n\).
Der Beweis der folgenden Aussage ist offensichtlich.
Für alle \(u, v, w\in \mathbb R^n\) gilt
Man sagt, der Abstand \(d\) sei translationsinvariant. Wir können also \(d(v,w)\) ausdrücken als \(d(0, w-v)\); es genügt daher, für alle \(v\in \mathbb R^n\) den Abstand \(d(0,v)\) zu kennen, den wir auch mit \(\lVert v\rVert \) bezeichnen.
Von der Länge zu sprechen, ist sinnvoll, wenn man sich einen Vektor als Pfeil (mit einer Richtung und einer Länge) vorstellt. Wie oben bemerkt können wir die Abstandfunktion als \(d(v,w) = \lVert w-v \rVert \) aus der Norm zurückgewinnen. Dementsprechend lassen sich auch die Eigenschaften des Abstands in Eigenschaften der Norm übersetzen:
Die Norm \(\lVert \cdot \rVert \colon \mathbb R^n\to \mathbb R_{\ge 0}\) hat die folgenden Eigenschaften:
\(\lVert v\rVert = 0 \quad \Longleftrightarrow \quad v = 0\),
\(\lVert v+w \lVert \le \lVert v\rVert + \lVert w\rVert \),
\(\lVert av \rVert = \lvert a\rvert \, \lVert v\rVert \)
für \(v,w\in \mathbb R^n\) und \(a\in \mathbb R\).
11.2.2 Orthogonalität und das Skalarprodukt
Aus dem Abstandsbegriff können wir auch ableiten, wann zwei Vektoren (bzw. die davon erzeugten Geraden) einen rechten Winkel bilden. Anschaulich sollte nämlich ein Dreieck durch seine Seitenlängen bis auf Kongruenz eindeutig bestimmt sein, und ein Dreieck mit Seitenlängen \(a\), \(b\), \(c\) genau dann ein rechtwinkliges Dreieck sein, wenn für die Seitenlängen die Gleichung \(a^2+b^2 = c^2\) aus dem Satz des Pythagoras gilt (wobei \(c\) hier die längste der drei Seiten bezeichne).
Wir machen daraus die folgende provisorische Definition (siehe Definition 11.15): Vektoren \(v, w\in \mathbb R^n\) stehen senkrecht aufeinander, wenn »für das Dreieck mit Ecken \(0, v, w\) der Satz des Pythagoras gilt«, also genau dann, wenn
gilt.
Für Vektoren, die nicht zueinander senkrecht sind, können wir diese Überlegung dazu benutzen, die Abweichung davon zu »messen«. Wir definieren dafür:
Für das Skalarprodukt sind auch viele andere Schreibweisen gebräuchlich, unter anderem \(vw\), \((v,w)\), \(\langle v, w\rangle \), \((v\mid w)\).
Sind \(v=(v_1,\dots , v_n)^t\), \(w=(w_1, \dots , w_n)^t\), so gilt konkret
wobei wir für den Ausdruck in der Mitte \(v\) und \(w\) als \((n\times 1)\)-Matrizen verstehen und das Matrizenprodukt von \(v^t\) und \(w\) bilden.
Wir können also auch die Norm von \(v\) mithilfe des Skalarprodukts ausdrücken, es gilt
Damit können wir die Definition, wann zwei Vektoren senkrecht aufeinander stehen, nun in der endgültigen Form angeben:
Das Skalarprodukt auf \(\mathbb R^n\) hat die folgenden Eigenschaften.
\(v\cdot w = w\cdot v\)
\((av+a^\prime v^\prime )\cdot w = a(v\cdot w) + a^\prime (v^\prime \cdot w)\),
\(v\cdot (aw+a^\prime w^\prime ) = a(v\cdot w) + a^\prime (v\cdot w^\prime )\).
\(v\cdot v \ge 0\), und \(v\cdot c=0 \ \Leftrightarrow \ v=0\).
Alle Eigenschaften sind leicht nachzurechnen. Man sagt wegen Eigenschaft (1) auch, das Skalarprodukt sei symmetrisch. Eigenschaften (2) und (3) bedeuten, dass die Abbildung \(\mathbb R^n\times \mathbb R^n\to \mathbb R\) multilinear im Sinne von Definition 9.1 ist. Da der Definitionsbereich aus zwei Faktoren besteht, spricht man auch von einer bilinearen Abbildung, bzw. von einer Bilinearform, weil der Wertebereich der Grundkörper \(\mathbb R\) ist. Schließlich sagt man wegen Eigenschaft (4), dass diese Bilinearform positiv definit sei. Wir können das Lemma also zusammenfassen, indem wir sagen, das Standard-Skalarprodukt sei eine positiv definite symmetrische Bilinearform. In der Linearen Algebra werden wir die Theorie der Bilinearformen auf einem Vektorraum genauer studieren.
Wir sagen, dass zwei affine Geraden \(g\), \(h\) (also Geraden, die nicht notwendig durch den Ursprung verlaufen), die sich in einem Punkt \(P\) schneiden, senkrecht aufeinander stehen, wenn die um \(P\) verschobenen Geraden \(-P + g\) und \(-P + h\) (hier handelt es sich um Ursprungsgeraden) von Vektoren erzeugt werden, die aufeinander senkrecht stehen, mit anderen Worten, wenn
Die Vektoren \(v\) und \(w\) (die »Richtungsvektoren«) sind durch die Geraden \(g\) und \(h\) bis auf Vielfache eindeutig bestimmt und unabhängig vom Punkt \(P\). Es ist also an dieser Stelle nicht erforderlich, den Schnittpunkt der Geraden zu verwenden (aber wir verlangen, dass sich die Geraden überhaupt schneiden).
11.2.3 Die Ungleichung von Cauchy-Schwarz
Wir liefern nun den Beweis der Dreiecksungleichung nach (Satz 11.9).
Zunächst fassen wir noch einmal die geometrische Bedeutung des Skalarprodukts \(v\cdot w\) zweier Vektoren \(v\) und \(w\) zusammen: Das Skalarprodukt \(v\cdot w\) ist genau dann \(=0\), wenn \(v\) und \(w\) (bzw. die von diesen Vektoren erzeugten Geraden \(\langle v\rangle \), \(\langle w\rangle \)) zueinander senkrecht sind. Im allgemeinen Fall misst das Skalarprodukt die Abweichung davon. Konkreter können wir das in der Ebene folgendermaßen beschreiben.
Sei \(v\in \mathbb R^2\), \(v\ne 0\). Sei \(v^\prime \in \mathbb R^2\) ein Vektor \(\ne 0\), so dass \(v\cdot v^\prime = 0\). Dann bilden \(v\), \(v^\prime \) eine Basis von \(\mathbb R^2\). Sei \(p\colon \mathbb R^2\to \langle v\rangle \) die eindeutig bestimmte lineare Abbildung mit \(p(v) = v\), \(p(v^\prime ) = 0\), also die Projektion der Ebene auf die Gerade \(\langle v\rangle \).
Dann gilt für alle \(w\in \mathbb R^2\):
Wir schreiben \(w = av+a^\prime v^\prime \). Dann gilt \(p(w) = av\) und wegen \(v\cdot v^\prime = 0\), dass
und
Daraus folgt die Behauptung.
Zur Vorbereitung für den Beweis der Dreiecksungleichung beweisen wir das folgende etwas technische, aber sehr nützliche Resultat.
Ist \(v=0\) oder \(w=0\), so sind beide Seiten der Ungleichung \(0\), und die Aussage des Satzes ist klar. Seien nun \(v\) und \(w\) verschieden von \(0\). Wenn wir \(v\) oder \(w\) mit einem Skalar aus \(\mathbb R_{{\gt} 0}\) multiplizieren, dann verändern sich beide Seiten um diesen Faktor, wir können daher ohne Einschränkung annehmen, dass \(\lVert v\rVert = \lVert w\rVert = 1\) gilt. Indem wir gegebenenfalls \(v\) durch \(-v\) ersetzen, können wir zusätzlich annehmen, dass \(v\cdot w\ge 0\) gilt. Es genügt dann zu zeigen, dass \(v\cdot w\le 1\) ist, mit Gleichheit genau dann, wenn \(v\) und \(w\) linear abhängig sind.
Nun haben wir
und daraus folgt \(v\cdot w \le 1\), wie gewünscht. Zudem gilt die Gleichheit nur dann, wenn \(v = w\) ist. Nach den obigen Reduktionsschritten ist das äquivalent dazu, dass \(v\) und \(w\) linear abhängig sind. Jedenfalls ist klar, dass die Vektoren in diesem Fall linear abhängig sind. Dass für linear abhängige \(v\), \(w\) die Gleichheit \(\lvert v\cdot w \rvert ^2 \le \lVert v\rVert \, \lVert w\rVert \) gilt, sieht man auch leicht direkt.
Wir beweisen nun die Dreiecksungleichung.
Seien \(u\), \(v\), \(w\) in \(\mathbb R^n\) gegeben. Wir wollen zeigen, dass
gilt.
Es genügt, die Abschätzung für die Quadrate der beiden Seiten zu zeigen, da es sich um nicht-negative reelle Zahlen handelt. Das Quadrat der linken Seite ist
Das Quadrat der rechten Seite ist
Wegen der Translationsinvarianz des Abstands können wir ohne Einschränkung annehmen, dass \(v=0\) ist. Zu zeigen ist dann \(2 \lVert u\rVert \, \lVert w\rVert \ge -2 w\cdot u\). Das folgt direkt aus der Cauchy-Schwarzschen Ungleichung.
11.2.4 Die Sätze von Pythagoras und von Thales
Wir wollen überprüfen, dass mit unseren Definitionen der Satz des Pythagoras gilt, und als weiteres einfaches Beispiel den Satz des Thales beweisen.
Seien \(u\), \(v\), \(w\) Punkte in \(\mathbb R^n\), so dass das Dreieck mit den Eckpunkten an der Ecke \(u\) einen rechten Winkel hat, das bedeutet \((v-u)\cdot (w-u) = 0\). Dann gilt
Wegen der Translationsinvarianz des Abstands können wir ohne Einschränkung annehmen, dass \(u=0\) ist. Die Voraussetzung ist dann \(v\cdot w=0\), und wir können wie folgt rechnen.
Das ist genau die Behauptung des Satzes.
Nun kommen wir zum Satz des Thales. Für \(v, w\in \mathbb R^n\) ist \((v+w)/2\) der Mittelpunkt der Strecke zwischen \(v\) und \(w\) (also der eindeutig bestimmte Punkt auf der Geraden durch \(v\) und \(w\), der zu \(v\) und zu \(w\) denselben Abstand hat).
Seien \(u, v, w\in \mathbb R^2\), so dass \(u\) auf dem Kreis
mit Mittelpunkt \((v+w)/2\) und Radius \(d(v,w)/2\) liegt. Dann bilden \(u, v,w\) ein rechtwinkliges Dreieck, mit rechtem Winkel an der Ecke \(u\).
Wir müssen zeigen, dass \((v-u)\cdot (w-u) =0\) gilt. Die Voraussetzung besagt, dass
also, nach Quadrieren beider Seiten,
das bedeutet
wie gewünscht.
11.2.5 Abstandserhaltende Abbildungen
Jede Isometrie \(f\) ist injektiv, denn aus \(f(v) = 0\) folgt \(0 = d(f(v), 0) = d(f(v), f(0)) = d(v, 0)\), also \(v=0\), und ein injektiver Endomorphismus eines endlich-dimensionalen Vektorraums ist notwendigerweise ein Isomorphismus. Man sieht dann auch leicht, dass die zu einer Isometrie inverse Abbildung ebenfalls eine Isometrie ist. Weil offenbar die Verkettung von Isometrien auch eine Isometrie ist, folgt, dass die Isometrien eine Untergruppe der Gruppe \(\operatorname{Aut}_\mathbb R(\mathbb R^n)\) aller Automorphismen des Vektorraums \(\mathbb R^n\) bilden. Vergleiche Satz 11.25.
Wir setzen in der Definition einer Isometrie voraus, dass \(f\) linear ist, weil wir vor allem lineare Abbildungen betrachten möchten. Teilweise wird eine Isometrie etwas allgemeiner als eine Abbildung \(g\) definiert, für die \(d(g(v), g(w))= d(v,w)\) für alle \(v,w\) gilt.
Der Unterschied ist allerdings nicht groß. Denn ist \(g\) eine Abbildung, die alle Abstände zwischen zwei Punkten erhält, dann ist \(g\) eine affine Abbildung, lässt sich also schreiben als Verkettung einer linearen abstandserhaltenden Abbildung \(f\) und einer Verschiebung \(t_u\colon x\mapsto x+u\), d.h. \(g = t_u \circ f \, (= f\circ t_{f^{-1}(u)})\), wobei \(u = g(0)\) ist.
Mit anderen Worten: Ist \(g\) abstandserhaltend, aber nicht notwendig linear, so ist \(f := t_{-g(0)}\circ g\) eine Isometrie in unserem Sinne. Geometrisch lässt sich das folgendermaßen begründen (allerdings an dieser Stelle etwas skizzenhaft). Die Strecke zwischen zwei Punkten ist die kürzeste Verbindungslinie; das kann man zu einem Beweis ausbauen, dass \(f\) Geraden (nicht nur Ursprungsgeraden) auf Geraden abbildet. Parallelität von Geraden kann man auch durch Abstände charakterisieren. Deshalb muss \(f\) auch Parallelogramme auf Parallelogramme abbilden. Da wir die Eigenschaft \(f(0)=0\) in unsere Definition von \(f\) eingebaut haben, folgt, dass \(f\) mit der Addition verträglich ist. Dann ergibt sich auch \(f(nv) = f(v+\cdots +v)=n f(v)\) für alle \(n\in \mathbb N\) und mit etwas Zusatzarbeit auch \(f(av)=af(v)\) für alle \(a\in \mathbb Q\). Da man jede reelle Zahl zwischen rationalen Zahlen »einschachteln« kann, kann man daraus auch \(f(av)=af(v)\) für alle \(a\in \mathbb R\) ableiten.
Wir können die Eigenschaft, eine Isometrie zu sein, auch in Termen der Norm, oder des Skalarprodukts umformulieren:
Sei \(f\colon \mathbb R^n\to \mathbb R^n\) eine lineare Abbildung. Dann sind äquivalent:
Die Abbildung \(f\) ist abstandserhaltend.
Für alle \(v\in \mathbb R^n\) gilt \(\lVert f(v)\rVert = \lVert v\rVert \).
Für alle \(v,w\in \mathbb R^n\) gilt \(f(v)\cdot f(w) = v\cdot w\).
Sei \(f\) abstandserhaltend. Dann gilt insbesondere \(d(0, f(v)) = d(0, v)\) für alle \(v\), also (ii). Sei nun \(f\) eine lineare Abbildung mit Eigenschaft (ii). Weil wir das Skalarprodukt (wie in unserer Definition 11.14) durch die Norm von Vektoren ausdrücken können, folgt (iii). Ist schließlich Eigenschaft (iii) erfüllt, so folgt aus \(d(v, w) = \sqrt{(w-v)\cdot (w-v)}\) (und entsprechend für \(d(f(v), f(w))\)), dass \(f\) auch die Bedingung (i) erfüllt.
In Termen der darstellenden Matrix \(M(f)\) von \(f\) erhalten wir die folgende Charakterisierung:
Sei \(f\colon \mathbb R^n\to \mathbb R^n\) eine lineare Abbildung. Dann sind äquivalent:
Die Abbildung \(f\) ist abstandserhaltend.
Die Matrix \(M(f)\) ist invertierbar und es gilt \(M(f)^{-1} = M(f)^t\).
Wir haben schon gesehen, dass eine abstandserhaltende Abbildung \(f\) ein Isomorphismus ist, folglich ist in diesem Fall \(M(f)\) invertierbar. Wir müssen noch zeigen, dass \(M(f)^t M(f) = E_n\) gilt. Wir bezeichnen dazu mit \(e_1, \dots , e_n\) die Standardbasis von \(\mathbb R^n\). Der Eintrag in Zeile \(i\) und Spalte \(j\) irgendeiner Matrix \(A\in M_n(\mathbb R)\) ist dann \(e_i^tAe_j\). Für den entsprechenden Eintrag der Matrix \(M(f)^t M(f)\) erhalten wir
und dies ist \(1\) oder \(0\), je nachdem, ob \(i=j\) oder \(i\ne j\) – genau wie bei der Einheitsmatrix.
Ist andererseits \(M(f)\) invertierbar mit inverser Matrix \(M(f)^t\), so erhalten wir für \(v, w\in \mathbb R^n\):
Es ist klar, dass \(E_n\in O_n(\mathbb R)\). Dass das Produkt orthogonaler Matrizen wieder die definierende Eigenschaft hat, ebenso wie die inverse Matrix einer orthogonalen Matrix, folgt aus den Formeln \((AB)^t = B^t A^t\) und \((A^t)^{-1} = (A^{-1})^t\).
Für die Ebene erhalten wir die folgende Beschreibung:
Sei \(f\colon \mathbb R^2\to \mathbb R^2\) eine Isometrie. Dann existieren \(a,b\in \mathbb R\) mit \(a^2 + b^2 = 1\), so dass
Wir setzen \(\begin{pmatrix} a \\ b \end{pmatrix} = f(e_1)\). Dass \(\lVert f(e_1)\rVert = 1\) gilt, sagt genau, dass \(a^2+b^2 = 1\).
Sei \(A = M(f) = \begin{pmatrix} a & a^\prime \\ b & b^\prime \end{pmatrix}\). Aus
folgt \(\det (A) \in \{ 1, -1\} \). (Wir benutzen hier grundlegende Eigenschaften der Determinante \(\det (A) = \delta (A)\), wie sie in Kapitel 9 erklärt werden. Siehe auch Bemerkung 5.56; im \((2\times 2)\)-Fall lassen sich die oben behaupteten Gleichheiten auch leicht direkt überprüfen.)
Damit erhalten wir für das Inverse von \(A\):
je nachdem, ob \(\det (A) = 1\) oder \(\det (A) = -1\) gilt. Weil \(A^{-1} = A^t\) ist, folgt die Behauptung.
Für eine Isometrie \(f\colon \mathbb R^2\to \mathbb R^2\) sind die folgenden Bedingungen äquivalent. Sind sie erfüllt, so nennen wir \(f\) eine Drehung.
\(\det (f) = 1\)
Es existiert eine Isometrie \(g\colon \mathbb R^n\to \mathbb R^n\) mit \(f = g\circ g\).
\(M(f)\) hat die Form \(\begin{pmatrix} a & -b \\ b & a \end{pmatrix}\) für \(a,b\in \mathbb R\) mit \(a^2+b^2=1\).
\(f= \operatorname{id}\) oder \(f=-\operatorname{id}\) oder \(f\) besitzt keinen Eigenvektor, d.h. es existiert kein \(v\in \mathbb R^2\setminus \{ 0\} \), so dass \(f(v) \in \langle v\rangle \) ist.
Die Folgerung (ii) \(\Rightarrow \) (i) folgt aus der Multiplikativität der Determinante. Die Implikationen (i) \(\Leftrightarrow \) (iv) \(\Leftrightarrow \) (iii) ergeben sich leicht aus Satz 11.26.
Dass (ii) aus (iii) folgt, kann man durch eine direkte Rechnung überprüfen. Nachdem wir den Begriff des Winkels eingeführt haben, können wir das aber wesentlich leichter sehen, weil wir dann \(f\) als Drehung um einen Winkel \(\alpha \) verstehen und \(g\) als die Drehung um den Winkel \(\alpha /2\) definieren können.
Die erste im Satz genannte Eigenschaft ist geeignet, um in beliebiger Dimension den Begriff der Drehung zu definieren. Siehe Ergänzung 7.60, Ergänzung 9.24.
Eine Isometrie \(f\colon \mathbb R^n\to \mathbb R^n\) heißt Drehung, wenn \(\det (f) = 1\) gilt.
Die Untergruppe von \(O_n(\mathbb R)\), die aus allen Drehungen besteht, mit anderen Worten der Kern der Gruppenhomomorphismus \(O_n(\mathbb R)\to \mathbb R^\times \), \(A\mapsto \det (A)\), heißt die spezielle orthogonale Gruppe und wird mit \(SO_n(\mathbb R)\) bezeichnet.
Ein anderer wichtiger Typ von Isometrien ist die Spiegelung an einem Untervektorraum der Dimension \(n-1\) in \(\mathbb R^n\) (wir sprechen auch von einem Unterraum »der Kodimension \(1\)« oder von einer Hyperebene).
Eine Isometrie \(f\colon \mathbb R^n\to \mathbb R^n\) heißt eine Spiegelung, wenn eine Hyperebene \(U\subseteq \mathbb R^n\), d.h. ein Untervektorraum der Dimension \(n-1\), und ein Vektor \(v\in \mathbb R^n\), der zu allen Elementen von \(U\) senkrecht ist, existieren, so dass \(f(u)=u\) für alle \(u\in U\) und \(f(v) = -v\).
Für \(\mathbb R^2\) erhalten wir, dass eine Isometrie genau dann eine Spiegelung ist, wenn ihre darstellende Matrix die Form \(\begin{pmatrix} a & b \\ b & -a \end{pmatrix}\) für \(a,b\in \mathbb R\) mit \(a^2+b^2 = 1\) hat.
https://math.ug/applets/drehungen.html,
https://math.ug/applets/spiegelungen.html.