Inhalt

11.2 Das Standard-Skalarprodukt auf \(\mathbb R^n\)

Wir betrachten nun als Grundkörper den Körper der reellen Zahlen, und fixieren \(n\in \mathbb N\). Zuerst definieren wir, was wir unter dem Abstand zwischen zwei Punkten in \(\mathbb R^n\) verstehen, und untersuchen diesen Begriff.

11.2.1 Der Abstand zwischen Punkten in \(\mathbb R^n\)

Definition 11.8

Seien \(v = (v_1, \dots , v_n)^t\) und \(w=(w_1, \dots , w_n)^t\) Elemente von \(\mathbb R^n\). Der Abstand zwischen den Punkten \(v\) und \(w\) (oder die Länge der Strecke zwischen \(v\) und \(w\)) ist

\[ d(v,w) = \sqrt{\sum _{i=1}^n (w_i - v_i)^2}. \]

Da Quadrate reeller Zahlen niemals negativ sind, steht unter der Wurzel eine nicht-negative Zahl, und wir können die Wurzel (in \(\mathbb R_{\ge 0}\)) ziehen. Für \(n=1\) erhalten wir \(d(v,w) = \lvert w-v\rvert \), und das ist der Abstand der Punkte \(v,w\) auf der reellen Zahlengerade. Auch in höheren Dimensionrn spiegelt dieser Begriff unsere Anschauung vom Abstand zwischen zwei Punkten wider – einerseits hat er die »üblichen Eigenschaften« einer Abstandsfunktion, andererseits ergibt sich der Begriff in natürlicher Weise aus dem Satz des Pythagoras.

\begin{tikzpicture}  \clip (-.5, -1.5) rectangle + (6, 6); \draw [->, gray, thick] (-6.8*.5, 0) – (10.8*.5, 0); \draw [->, gray, thick] (0, -6.8*.5) – (0, 8.8*.5); 

\foreach \x in {-6, -4, -2, 2, 4, 6, 8, 10}{ \draw [gray] (\x *.5, -0.1) – (\x *.5, 0.1) node[black, below, yshift=-.1cm] {\x }; }; \foreach \x in {-6, -4, -2, 2, 4, 6, 8}{ \draw [gray] (-0.1, \x *.5) – (0.1, \x *.5) node[black, left, xshift=-.1cm] {\x }; }; 

\draw [decorate,decoration={brace,amplitude=10pt,mirror,raise=4pt},yshift=0pt] (1,1) – (4,1) node[below=.66cm, left=1cm] {$w_1 - v_1$}; \draw [decorate,decoration={brace,amplitude=10pt,raise=4pt},yshift=0pt] (4,3) – (4,1) node[above=.97cm, right=.48cm] {$w_2 - v_2$}; \draw [thick] (1,1) – (4,1) – (4,3) – (1,1); \fill [red] (4, 3) circle[radius=.5mm] node[above left, black] {$w$}; \fill [red] (1, 1) circle[radius=.5mm] node[above left, black] {$v$}; 

\end{tikzpicture}
Hier ergibt sich natürlich wieder das konzeptionelle Problem, dass wir schon von der Länge einer Strecke sprechen müssen, um den Satz des Pythagoras formulieren zu können. Zum jetzigen Zeitpunkt kann uns dieser also nur als Heuristik dienen. Immerhin zeigen Beweise wie in Abschnitt 3.3.1, dass der Satz des Pythagoras nur wenige Voraussetzungen an die zugrundeliegende »Geometrie« erfordert. Dass der Abstand von Punkten \(v, w\in \mathbb R^2\) durch die oben gegebene Formel berechnet/definiert werden kann, ist genau die Aussage des Satzes des Pythagoras für Dreiecke, deren Katheten zu den Koordinatenachsen parallel sind.

Für höherdimensionale Räume \(\mathbb R^n\) lässt sich der Abstand schrittweise mithilfe des Satzes des Pythagoras in der gewünschten Form ausdrücken:

Um den Abstand der »gegenüberliegenden« Punkte des hier abgebildeten Würfels, also die Länge der dick gezeichneten grünen Strecke auszudrücken, zeichnen wir die dünner gezeichneten grünen Hilfslinien ein. Zusammen bilden die grünen Strecken ein rechtwinkliges Dreieck; wir erwarten, dass für dieses der Satz des Pythagoras gelten soll. Die Länge der Diagonale durch die obere Seite des Würfels können wir wiederum mit dem Satz des Pythagoras ausdrücken. Kombiniert man alles, so ergibt sich die Formel, die wir oben zur Definition des Abstands benutzt haben.
\begin{tikzpicture} [scale=3] \draw [ultra thick, green] (1,0,0) -- (0,1,1); \draw [thick, green] (0,1,1) -- (1,1,0); \draw [thick] (1,0,0) -- (1,1,0); \draw [thick, dotted] (0,1,0) -- (0,0,0); \draw [thick] (1,0,1) -- (1,0,0); \draw [thick, dotted] (1,0,0) -- (0,0,0); \draw [thick] (0,0,1) -- (1,0,1) -- (1,1,1) -- (0,1,1) -- (0,0,1); \draw [thick] (0,1,0) -- (1,1,0) -- (1,1,1) -- (0,1,1) -- (0,1,0); \draw [dotted, thick] (0,0,0) -- (0,0,1) -- (1,0,1); \draw [thick, green] (1,1,0) -- (1,0,0); \end{tikzpicture}

Satz 11.9

Die Abstandsfunktion \(d\) hat die folgenden Eigenschaften:

  1. Für \(v,w\in \mathbb R^n\) gilt \(d(v,w)\in \mathbb R_{\ge 0}\) und \(d(v,w)=0\) genau dann, wenn \(v=w\).

  2. Für alle \(v,w\in \mathbb R^n\) gilt \(d(v,w)=d(w,v)\).

  3. (Dreiecksungleichung) Für alle \(u,v,w\in \mathbb R^n\) gilt

    \[ d(u,v) + d(v,w) \ge d(u,w) \]

Proof
Die ersten beiden Eigenschaften sind klar. Die Dreiecksungleichung besagt anschaulich, dass in dem Dreieck mit Ecken \(u\), \(v\) und \(w\) die Länge der Kante mit Endpunkten \(u\) und \(w\) höchstens so groß ist wie die Summe der beiden anderen Kanten (und man kann sich auch davon überzeugen, dass die Gleichheit nur dann eintreten kann, wenn \(u\), \(v\) und \(w\) auf einer Geraden liegen). Das ist nicht schwierig (aber auch nicht ganz offensichtlich – versuchen Sie es einmal!). Das ganze ist etwas angenehmer aufzuschreiben, nachdem wir den Begriff des Skalarprodukts zweier Vektoren (und die entsprechende Notation) eingeführt haben. Wir verschieben daher den Beweis auf Abschnitt 11.2.3.
Proof

Bemerkung 11.10

Man sagt, eine Menge \(X\) zusammen mit einer Funktion \(d\colon X\times X\to \mathbb R_{\ge 0}\), so dass

  1. \(d(x, y) = 0 \quad \Longleftrightarrow \quad x = y\),

  2. \(d(x, y) = d(y, x)\) und

  3. \(d(x, y) + d(y, z) \ge d(x, z)\)

für alle \(x, y, z\in X\) sei ein metrischer Raum. Die Funktion \(d\) heißt dann eine Metrik oder Abstandsfunktion auf \(X\).

Es gibt noch (viele…) andere Abstandsfunktionen auf \(\mathbb R^n\). Die oben definierte Metrik heißt die euklidische Metrik auf \(\mathbb R^n\). Da sie die Geometrie des Raums, in dem wir uns befinden, definiert, ist es die wichtigste Abstandsfunktion auf \(\mathbb R^n\).

Der Beweis der folgenden Aussage ist offensichtlich.

Lemma 11.11

Für alle \(u, v, w\in \mathbb R^n\) gilt

\[ d(u+w, v+w) = d(u, v). \]

Man sagt, der Abstand \(d\) sei translationsinvariant. Wir können also \(d(v,w)\) ausdrücken als \(d(0, w-v)\); es genügt daher, für alle \(v\in \mathbb R^n\) den Abstand \(d(0,v)\) zu kennen, den wir auch mit \(\lVert v\rVert \) bezeichnen.

Definition 11.12

Für \(v = (v_1, \dots , v_n)^t\in \mathbb R^n\) ist

\[ \lVert v\rVert := \sqrt{\sum _{i=1}^n v_i^2} \]

die Norm (oder: die Länge) von \(v\).

Von der Länge zu sprechen, ist sinnvoll, wenn man sich einen Vektor als Pfeil (mit einer Richtung und einer Länge) vorstellt. Wie oben bemerkt können wir die Abstandfunktion als \(d(v,w) = \lVert w-v \rVert \) aus der Norm zurückgewinnen. Dementsprechend lassen sich auch die Eigenschaften des Abstands in Eigenschaften der Norm übersetzen:

Satz 11.13

Die Norm \(\lVert \cdot \rVert \colon \mathbb R^n\to \mathbb R_{\ge 0}\) hat die folgenden Eigenschaften:

  1. \(\lVert v\rVert = 0 \quad \Longleftrightarrow \quad v = 0\),

  2. \(\lVert v+w \lVert \le \lVert v\rVert + \lVert w\rVert \),

  3. \(\lVert av \rVert = \lvert a\rvert \, \lVert v\rVert \)

für \(v,w\in \mathbb R^n\) und \(a\in \mathbb R\).

Proof
Eigenschaften (1) und (3) sind klar. Eigenschaft (2), die wieder als Dreiecksungleichung bezeichnet wird, ist äquivalent zur Dreiecksungleichung für den euklidischen Abstand (die wir allerdings noch beweisen müssen).
Proof

11.2.2 Orthogonalität und das Skalarprodukt

Aus dem Abstandsbegriff können wir auch ableiten, wann zwei Vektoren (bzw. die davon erzeugten Geraden) einen rechten Winkel bilden. Anschaulich sollte nämlich ein Dreieck durch seine Seitenlängen bis auf Kongruenz eindeutig bestimmt sein, und ein Dreieck mit Seitenlängen \(a\), \(b\), \(c\) genau dann ein rechtwinkliges Dreieck sein, wenn für die Seitenlängen die Gleichung \(a^2+b^2 = c^2\) aus dem Satz des Pythagoras gilt (wobei \(c\) hier die längste der drei Seiten bezeichne).

Wir machen daraus die folgende provisorische Definition (siehe Definition 11.15): Vektoren \(v, w\in \mathbb R^n\) stehen senkrecht aufeinander, wenn »für das Dreieck mit Ecken \(0, v, w\) der Satz des Pythagoras gilt«, also genau dann, wenn

\[ \lVert v\rVert ^2 + \lVert w\rVert ^2 = \lVert w-v \rVert ^2 \]

gilt.

Für Vektoren, die nicht zueinander senkrecht sind, können wir diese Überlegung dazu benutzen, die Abweichung davon zu »messen«. Wir definieren dafür:

Definition 11.14

Das (Standard-)Skalarprodukt auf \(\mathbb R^n\) ist die Abbildung \(\mathbb R^n\times \mathbb R^n\to \mathbb R\), \((v,w)\mapsto v\cdot w\) mit

\[ v\cdot w = \frac12 (\lVert v\rVert ^2 + \lVert w\rVert ^2 -\lVert w-v \rVert ^2). \]

Für das Skalarprodukt sind auch viele andere Schreibweisen gebräuchlich, unter anderem \(vw\), \((v,w)\), \(\langle v, w\rangle \), \((v\mid w)\).

Sind \(v=(v_1,\dots , v_n)^t\), \(w=(w_1, \dots , w_n)^t\), so gilt konkret

\[ v\cdot w = v^t\, w = \sum _{i=1}^n v_iw_i, \]

wobei wir für den Ausdruck in der Mitte \(v\) und \(w\) als \((n\times 1)\)-Matrizen verstehen und das Matrizenprodukt von \(v^t\) und \(w\) bilden.

Wir können also auch die Norm von \(v\) mithilfe des Skalarprodukts ausdrücken, es gilt

\[ \lVert v \rVert = \sqrt{v\cdot v}. \]

Damit können wir die Definition, wann zwei Vektoren senkrecht aufeinander stehen, nun in der endgültigen Form angeben:

Definition 11.15

Wir sagen, Vektoren \(v,w\in \mathbb R^n\) seien senkrecht (oder: orthogonal) zueinander, wenn \(v\cdot w = 0\) ist.

Lemma 11.16

Das Skalarprodukt auf \(\mathbb R^n\) hat die folgenden Eigenschaften.

  1. \(v\cdot w = w\cdot v\)

  2. \((av+a^\prime v^\prime )\cdot w = a(v\cdot w) + a^\prime (v^\prime \cdot w)\),

  3. \(v\cdot (aw+a^\prime w^\prime ) = a(v\cdot w) + a^\prime (v\cdot w^\prime )\).

  4. \(v\cdot v \ge 0\), und \(v\cdot c=0 \ \Leftrightarrow \ v=0\).

Proof
Alle Eigenschaften sind leicht nachzurechnen. Man sagt wegen Eigenschaft (1) auch, das Skalarprodukt sei symmetrisch. Eigenschaften (2) und (3) bedeuten, dass die Abbildung \(\mathbb R^n\times \mathbb R^n\to \mathbb R\) multilinear im Sinne von Definition 9.1 ist. Da der Definitionsbereich aus zwei Faktoren besteht, spricht man auch von einer bilinearen Abbildung, bzw. von einer Bilinearform, weil der Wertebereich der Grundkörper \(\mathbb R\) ist. Schließlich sagt man wegen Eigenschaft (4), dass diese Bilinearform positiv definit sei. Wir können das Lemma also zusammenfassen, indem wir sagen, das Standard-Skalarprodukt sei eine positiv definite symmetrische Bilinearform. In der Linearen Algebra werden wir die Theorie der Bilinearformen auf einem Vektorraum genauer studieren.
Proof

Wir sagen, dass zwei affine Geraden \(g\), \(h\) (also Geraden, die nicht notwendig durch den Ursprung verlaufen), die sich in einem Punkt \(P\) schneiden, senkrecht aufeinander stehen, wenn die um \(P\) verschobenen Geraden \(-P + g\) und \(-P + h\) (hier handelt es sich um Ursprungsgeraden) von Vektoren erzeugt werden, die aufeinander senkrecht stehen, mit anderen Worten, wenn

\[ g = P + \langle v\rangle ,\quad h = P + \langle w\rangle , \quad v\cdot w = 0. \]

Die Vektoren \(v\) und \(w\) (die »Richtungsvektoren«) sind durch die Geraden \(g\) und \(h\) bis auf Vielfache eindeutig bestimmt und unabhängig vom Punkt \(P\). Es ist also an dieser Stelle nicht erforderlich, den Schnittpunkt der Geraden zu verwenden (aber wir verlangen, dass sich die Geraden überhaupt schneiden).

11.2.3 Die Ungleichung von Cauchy-Schwarz

Wir liefern nun den Beweis der Dreiecksungleichung nach (Satz 11.9).

Zunächst fassen wir noch einmal die geometrische Bedeutung des Skalarprodukts \(v\cdot w\) zweier Vektoren \(v\) und \(w\) zusammen: Das Skalarprodukt \(v\cdot w\) ist genau dann \(=0\), wenn \(v\) und \(w\) (bzw. die von diesen Vektoren erzeugten Geraden \(\langle v\rangle \), \(\langle w\rangle \)) zueinander senkrecht sind. Im allgemeinen Fall misst das Skalarprodukt die Abweichung davon. Konkreter können wir das in der Ebene folgendermaßen beschreiben.

Lemma 11.17

Sei \(v\in \mathbb R^2\), \(v\ne 0\). Sei \(v^\prime \in \mathbb R^2\) ein Vektor \(\ne 0\), so dass \(v\cdot v^\prime = 0\). Dann bilden \(v\), \(v^\prime \) eine Basis von \(\mathbb R^2\). Sei \(p\colon \mathbb R^2\to \langle v\rangle \) die eindeutig bestimmte lineare Abbildung mit \(p(v) = v\), \(p(v^\prime ) = 0\), also die Projektion der Ebene auf die Gerade \(\langle v\rangle \).

Dann gilt für alle \(w\in \mathbb R^2\):

\[ v\cdot w = v\cdot p(w) = \begin{cases} \lVert v\rVert \, \lVert p(w)\rVert & \text{falls}\ p(w) = av\ \text{mit}\ a\ge 0,\\ -\lVert v\rVert \, \lVert p(w)\rVert & \text{falls}\ p(w) = av\ \text{mit}\ a {\lt} 0. \end{cases} \]

\begin{tikzpicture}  \clip (-.5, -1.5) rectangle + (6, 6); \draw [->, gray, thick] (-6.8*.5, 0) – (10.8*.5, 0); \draw [->, gray, thick] (0, -6.8*.5) – (0, 8.8*.5); 

\foreach \x in {-6, -4, -2, 2, 4, 6, 8, 10}{ \draw [gray] (\x *.5, -0.1) – (\x *.5, 0.1) node[black, below, yshift=-.1cm] {\x }; }; \foreach \x in {-6, -4, -2, 2, 4, 6, 8}{ \draw [gray] (-0.1, \x *.5) – (0.1, \x *.5) node[black, left, xshift=-.1cm] {\x }; }; 

\draw [thick] (-2, -1) – (6,3) node {$\langle v\rangle $}; \draw [thick, dotted] (1, 3) – (2, 1); 

\fill [blue] (2, 1) circle[radius=.5mm] node[above left, black] {$p(w)$}; \fill [red] (1, 3) circle[radius=.5mm] node[above left, black] {$w$}; \fill [red] (3, 1.5) circle[radius=.5mm] node[above left, black] {$v$}; 

\end{tikzpicture}
Speziell gibt in dem Fall, dass \(\lVert v\rVert = 1\) ist, das Skalarprodukt \(v\cdot w\) bis auf das Vorzeichen einfach die Länge des Vektors an, der durch Projektion von \(w\) auf die Gerade \(\langle v\rangle \) entsteht. Wir sehen daran auch schon, dass wir das Skalarprodukt der Vektoren \(v\) und \(w\) benutzen können, um den Winkel zwischen \(v\) und \(w\) (bzw. zwischen den Geraden \(\langle v\rangle \) und \(\langle w\rangle \)) zu messen, siehe Abschnitt 11.5.

Proof
Wir schreiben \(w = av+a^\prime v^\prime \). Dann gilt \(p(w) = av\) und wegen \(v\cdot v^\prime = 0\), dass

\[ v\cdot w = v\cdot p(w) = a \, \lVert v\rVert ^2 \]

und

\[ \lVert p(w) \rVert = \lvert a\rvert \, \lVert v\rVert . \]

Daraus folgt die Behauptung.

Proof

Zur Vorbereitung für den Beweis der Dreiecksungleichung beweisen wir das folgende etwas technische, aber sehr nützliche Resultat.

Satz 11.18 Cauchy-Schwarzsche Ungleichung

Seien \(v, w\in \mathbb R^n\). Dann gilt

\[ \lvert v\cdot w \rvert \le \lVert v\rVert \, \lVert w\rVert . \]

Die Gleichheit gilt genau dann, wenn \(v\), \(w\) linear abhängig sind.

Proof
Ist \(v=0\) oder \(w=0\), so sind beide Seiten der Ungleichung \(0\), und die Aussage des Satzes ist klar. Seien nun \(v\) und \(w\) verschieden von \(0\). Wenn wir \(v\) oder \(w\) mit einem Skalar aus \(\mathbb R_{{\gt} 0}\) multiplizieren, dann verändern sich beide Seiten um diesen Faktor, wir können daher ohne Einschränkung annehmen, dass \(\lVert v\rVert = \lVert w\rVert = 1\) gilt. Indem wir gegebenenfalls \(v\) durch \(-v\) ersetzen, können wir zusätzlich annehmen, dass \(v\cdot w\ge 0\) gilt. Es genügt dann zu zeigen, dass \(v\cdot w\le 1\) ist, mit Gleichheit genau dann, wenn \(v\) und \(w\) linear abhängig sind.

Nun haben wir

\[ 0\le (v-w)\cdot (v-w) = v\cdot v - 2v\cdot w + w\cdot w = 2-2v\cdot w, \]

und daraus folgt \(v\cdot w \le 1\), wie gewünscht. Zudem gilt die Gleichheit nur dann, wenn \(v = w\) ist. Nach den obigen Reduktionsschritten ist das äquivalent dazu, dass \(v\) und \(w\) linear abhängig sind. Jedenfalls ist klar, dass die Vektoren in diesem Fall linear abhängig sind. Dass für linear abhängige \(v\), \(w\) die Gleichheit \(\lvert v\cdot w \rvert ^2 \le \lVert v\rVert \, \lVert w\rVert \) gilt, sieht man auch leicht direkt.

Proof

Wir beweisen nun die Dreiecksungleichung.

Proof
[Beweis der Dreiecksungleichung, Satz 11.9] Seien \(u\), \(v\), \(w\) in \(\mathbb R^n\) gegeben. Wir wollen zeigen, dass

\[ d(u, v) + d(v, w) \ge d(u, w) \]

gilt.

Es genügt, die Abschätzung für die Quadrate der beiden Seiten zu zeigen, da es sich um nicht-negative reelle Zahlen handelt. Das Quadrat der linken Seite ist

\[ \sum _{i=1}^n u_i^2 + \sum _{i=1}^n w_i^2 + 2 d(u,v) d(v,w). \]

Das Quadrat der rechten Seite ist

\[ \sum _{i=1}^n (w_i - u_i)^2. \]

Wegen der Translationsinvarianz des Abstands können wir ohne Einschränkung annehmen, dass \(v=0\) ist. Zu zeigen ist dann \(2 \lVert u\rVert \, \lVert w\rVert \ge -2 w\cdot u\). Das folgt direkt aus der Cauchy-Schwarzschen Ungleichung.

Proof

11.2.4 Die Sätze von Pythagoras und von Thales

Wir wollen überprüfen, dass mit unseren Definitionen der Satz des Pythagoras gilt, und als weiteres einfaches Beispiel den Satz des Thales beweisen.

Satz 11.19 Satz des Pythagoras

Seien \(u\), \(v\), \(w\) Punkte in \(\mathbb R^n\), so dass das Dreieck mit den Eckpunkten an der Ecke \(u\) einen rechten Winkel hat, das bedeutet \((v-u)\cdot (w-u) = 0\). Dann gilt

\[ d(v,u)^2 + d(w,u)^2 = d(v, w)^2. \]

Proof
Wegen der Translationsinvarianz des Abstands können wir ohne Einschränkung annehmen, dass \(u=0\) ist. Die Voraussetzung ist dann \(v\cdot w=0\), und wir können wie folgt rechnen.

\[ \lVert v \rVert ^2 + \lVert w \rVert ^2 = v\cdot v + w\cdot w = v\cdot v -2v\cdot w + w\cdot w =·(v-w)\cdot (v-w) = \lVert w-v\rVert ^2. \]

Das ist genau die Behauptung des Satzes.

Proof

Nun kommen wir zum Satz des Thales. Für \(v, w\in \mathbb R^n\) ist \((v+w)/2\) der Mittelpunkt der Strecke zwischen \(v\) und \(w\) (also der eindeutig bestimmte Punkt auf der Geraden durch \(v\) und \(w\), der zu \(v\) und zu \(w\) denselben Abstand hat).

\begin{tikzpicture} 
    \ifplastex\else\tikzstyle{every node}=[font=\tiny]\fi
   \clip (-4.5, -0.5) rectangle + (10, 6);
        \draw[->, gray, thick] (-6.8, 0) -- (8.8, 0);
        \draw[->, gray, thick] (0, -6.8) -- (0, 8.8);

        \foreach \x in {-3, -2, -1, 1, 2, 3, 4}{
            \draw[gray] (\x, -0.1) -- (\x, 0.1) node[black, below, yshift=-.1cm] {\x};
        };
        \foreach \x in {-3, -2, -1, 1, 2, 3, 4}{
            \draw[gray] (-0.1, \x) -- (0.1, \x) node[black, left, xshift=-.1cm] {\x};
        };

    \draw (1, 2) circle[radius=3.16];
    \draw[thick] (4,3) -- (-2,1) -- (2, 5) -- (4,3);
    \fill[red] (4, 3) circle[radius=.5mm] node[below right, black] {$w$};
    \fill[red] (-2, 1) circle[radius=.5mm] node[below right, black, xshift=-.3cm] {$v$};
    \fill[red] (1, 2) circle[radius=.5mm] node[below right, black, xshift=-.3cm] {$(v+w)/2$};
    \fill[red] (1, 2) circle[radius=.5mm] node[below right, black, xshift=-.3cm] {$(v+w)/2$};
    \fill[red] (2, 5) circle[radius=.5mm] node[above right, black, xshift=-.3cm] {$u$};
    \draw (2.25, 4.75) arc (315:225:.35);
    \fill[black] (2, 4.8) circle[radius=.2mm];
\end{tikzpicture}
Figure 11.1 Der Satz des Thales. Bei \(u\) ist ein rechter Winkel.

Satz 11.20 Satz des Thales

Seien \(u, v, w\in \mathbb R^2\), so dass \(u\) auf dem Kreis

\[ \{ x\in \mathbb R^n;\ d(x, (v+w)/2) = d(v,w)/2 \} \]

mit Mittelpunkt \((v+w)/2\) und Radius \(d(v,w)/2\) liegt. Dann bilden \(u, v,w\) ein rechtwinkliges Dreieck, mit rechtem Winkel an der Ecke \(u\).

Proof
Wir müssen zeigen, dass \((v-u)\cdot (w-u) =0\) gilt. Die Voraussetzung besagt, dass

\[ d(u, (v+w)/2) = d(v,w)/2, \]

also, nach Quadrieren beider Seiten,

\[ \frac14(v+w-2u) \cdot (v+w-2u) = \frac14 (w-v)\cdot (w-v), \]

das bedeutet

\[ (v-u)\cdot (w-u) = u\cdot u + v\cdot w - u\cdot v - u\cdot w = 0, \]

wie gewünscht.

Proof

11.2.5 Abstandserhaltende Abbildungen

Definition 11.21

Eine lineare Abbildung \(f\colon \mathbb R^n\to \mathbb R^n\) heißt abstandserhaltend (oder: eine Isometrie), wenn für alle \(v, w\in \mathbb R^n\) gilt:

\[ d(f(v), f(w)) = d(v,w). \]

Jede Isometrie \(f\) ist injektiv, denn aus \(f(v) = 0\) folgt \(0 = d(f(v), 0) = d(f(v), f(0)) = d(v, 0)\), also \(v=0\), und ein injektiver Endomorphismus eines endlich-dimensionalen Vektorraums ist notwendigerweise ein Isomorphismus. Man sieht dann auch leicht, dass die zu einer Isometrie inverse Abbildung ebenfalls eine Isometrie ist. Weil offenbar die Verkettung von Isometrien auch eine Isometrie ist, folgt, dass die Isometrien eine Untergruppe der Gruppe \(\operatorname{Aut}_\mathbb R(\mathbb R^n)\) aller Automorphismen des Vektorraums \(\mathbb R^n\) bilden. Vergleiche Satz 11.25.

Bemerkung 11.22

Wir setzen in der Definition einer Isometrie voraus, dass \(f\) linear ist, weil wir vor allem lineare Abbildungen betrachten möchten. Teilweise wird eine Isometrie etwas allgemeiner als eine Abbildung \(g\) definiert, für die \(d(g(v), g(w))= d(v,w)\) für alle \(v,w\) gilt.

Der Unterschied ist allerdings nicht groß. Denn ist \(g\) eine Abbildung, die alle Abstände zwischen zwei Punkten erhält, dann ist \(g\) eine affine Abbildung, lässt sich also schreiben als Verkettung einer linearen abstandserhaltenden Abbildung \(f\) und einer Verschiebung \(t_u\colon x\mapsto x+u\), d.h. \(g = t_u \circ f \, (= f\circ t_{f^{-1}(u)})\), wobei \(u = g(0)\) ist.

Mit anderen Worten: Ist \(g\) abstandserhaltend, aber nicht notwendig linear, so ist \(f := t_{-g(0)}\circ g\) eine Isometrie in unserem Sinne. Geometrisch lässt sich das folgendermaßen begründen (allerdings an dieser Stelle etwas skizzenhaft). Die Strecke zwischen zwei Punkten ist die kürzeste Verbindungslinie; das kann man zu einem Beweis ausbauen, dass \(f\) Geraden (nicht nur Ursprungsgeraden) auf Geraden abbildet. Parallelität von Geraden kann man auch durch Abstände charakterisieren. Deshalb muss \(f\) auch Parallelogramme auf Parallelogramme abbilden. Da wir die Eigenschaft \(f(0)=0\) in unsere Definition von \(f\) eingebaut haben, folgt, dass \(f\) mit der Addition verträglich ist. Dann ergibt sich auch \(f(nv) = f(v+\cdots +v)=n f(v)\) für alle \(n\in \mathbb N\) und mit etwas Zusatzarbeit auch \(f(av)=af(v)\) für alle \(a\in \mathbb Q\). Da man jede reelle Zahl zwischen rationalen Zahlen »einschachteln« kann, kann man daraus auch \(f(av)=af(v)\) für alle \(a\in \mathbb R\) ableiten.

Wir können die Eigenschaft, eine Isometrie zu sein, auch in Termen der Norm, oder des Skalarprodukts umformulieren:

Lemma 11.23

Sei \(f\colon \mathbb R^n\to \mathbb R^n\) eine lineare Abbildung. Dann sind äquivalent:

  1. Die Abbildung \(f\) ist abstandserhaltend.

  2. Für alle \(v\in \mathbb R^n\) gilt \(\lVert f(v)\rVert = \lVert v\rVert \).

  3. Für alle \(v,w\in \mathbb R^n\) gilt \(f(v)\cdot f(w) = v\cdot w\).

Proof
Sei \(f\) abstandserhaltend. Dann gilt insbesondere \(d(0, f(v)) = d(0, v)\) für alle \(v\), also (ii). Sei nun \(f\) eine lineare Abbildung mit Eigenschaft (ii). Weil wir das Skalarprodukt (wie in unserer Definition 11.14) durch die Norm von Vektoren ausdrücken können, folgt (iii). Ist schließlich Eigenschaft (iii) erfüllt, so folgt aus \(d(v, w) = \sqrt{(w-v)\cdot (w-v)}\) (und entsprechend für \(d(f(v), f(w))\)), dass \(f\) auch die Bedingung (i) erfüllt.
Proof

In Termen der darstellenden Matrix \(M(f)\) von \(f\) erhalten wir die folgende Charakterisierung:

Lemma 11.24

Sei \(f\colon \mathbb R^n\to \mathbb R^n\) eine lineare Abbildung. Dann sind äquivalent:

  1. Die Abbildung \(f\) ist abstandserhaltend.

  2. Die Matrix \(M(f)\) ist invertierbar und es gilt \(M(f)^{-1} = M(f)^t\).

Proof
Wir haben schon gesehen, dass eine abstandserhaltende Abbildung \(f\) ein Isomorphismus ist, folglich ist in diesem Fall \(M(f)\) invertierbar. Wir müssen noch zeigen, dass \(M(f)^t M(f) = E_n\) gilt. Wir bezeichnen dazu mit \(e_1, \dots , e_n\) die Standardbasis von \(\mathbb R^n\). Der Eintrag in Zeile \(i\) und Spalte \(j\) irgendeiner Matrix \(A\in M_n(\mathbb R)\) ist dann \(e_i^tAe_j\). Für den entsprechenden Eintrag der Matrix \(M(f)^t M(f)\) erhalten wir

\[ e_i^t M(f)^t M(f)e_j = f(e_i)^t\, f(e_j) = f(e_i)\cdot f(e_j) = e_i\cdot e_j, \]

und dies ist \(1\) oder \(0\), je nachdem, ob \(i=j\) oder \(i\ne j\) – genau wie bei der Einheitsmatrix.

Ist andererseits \(M(f)\) invertierbar mit inverser Matrix \(M(f)^t\), so erhalten wir für \(v, w\in \mathbb R^n\):

\[ f(v)\cdot f(w) = f(v)^t f(w) = (M(f)v)^t (M(f)w) = v^t M(f)^tM(f) w = v\cdot w. \]

Proof

Satz 11.25

Die Teilmenge

\[ O_n(\mathbb R) := \{ A\in GL_n(\mathbb R);\ A^{-1} = A^t \} \subseteq GL_n(\mathbb R) \]

bildet bezüglich des Matrizenprodukts eine Gruppe, die sogenannte orthogonale Gruppe. Ihre Elemente heißen orthogonale Matrizen.

Proof
Es ist klar, dass \(E_n\in O_n(\mathbb R)\). Dass das Produkt orthogonaler Matrizen wieder die definierende Eigenschaft hat, ebenso wie die inverse Matrix einer orthogonalen Matrix, folgt aus den Formeln \((AB)^t = B^t A^t\) und \((A^t)^{-1} = (A^{-1})^t\).
Proof

Für die Ebene erhalten wir die folgende Beschreibung:

Satz 11.26

Sei \(f\colon \mathbb R^2\to \mathbb R^2\) eine Isometrie. Dann existieren \(a,b\in \mathbb R\) mit \(a^2 + b^2 = 1\), so dass

\[ M(f) = \begin{pmatrix} a & -b \\ b & a \end{pmatrix}\qquad \text{oder}\qquad M(f) = \begin{pmatrix} a & b \\ b & -a \end{pmatrix}. \]

Proof
Wir setzen \(\begin{pmatrix} a \\ b \end{pmatrix} = f(e_1)\). Dass \(\lVert f(e_1)\rVert = 1\) gilt, sagt genau, dass \(a^2+b^2 = 1\).

Sei \(A = M(f) = \begin{pmatrix} a & a^\prime \\ b & b^\prime \end{pmatrix}\). Aus

\[ \det (A)^2 = \det (A)\det (A^t) = \det (AA^t) = \det (E_2) = 1 \]

folgt \(\det (A) \in \{ 1, -1\} \). (Wir benutzen hier grundlegende Eigenschaften der Determinante \(\det (A) = \delta (A)\), wie sie in Kapitel 9 erklärt werden. Siehe auch Bemerkung 5.56; im \((2\times 2)\)-Fall lassen sich die oben behaupteten Gleichheiten auch leicht direkt überprüfen.)

Damit erhalten wir für das Inverse von \(A\):

\[ A^{-1} = \begin{pmatrix} b^\prime & -a^\prime \\ -b & a \end{pmatrix}\qquad \text{bzw.}\qquad A^{-1} = \begin{pmatrix} -b^\prime & a^\prime \\ b & -a \end{pmatrix}, \]

je nachdem, ob \(\det (A) = 1\) oder \(\det (A) = -1\) gilt. Weil \(A^{-1} = A^t\) ist, folgt die Behauptung.

Proof

Satz 11.27

Für eine Isometrie \(f\colon \mathbb R^2\to \mathbb R^2\) sind die folgenden Bedingungen äquivalent. Sind sie erfüllt, so nennen wir \(f\) eine Drehung.

  1. \(\det (f) = 1\)

  2. Es existiert eine Isometrie \(g\colon \mathbb R^n\to \mathbb R^n\) mit \(f = g\circ g\).

  3. \(M(f)\) hat die Form \(\begin{pmatrix} a & -b \\ b & a \end{pmatrix}\) für \(a,b\in \mathbb R\) mit \(a^2+b^2=1\).

  4. \(f= \operatorname{id}\) oder \(f=-\operatorname{id}\) oder \(f\) besitzt keinen Eigenvektor, d.h. es existiert kein \(v\in \mathbb R^2\setminus \{ 0\} \), so dass \(f(v) \in \langle v\rangle \) ist.

Proof
Die Folgerung (ii) \(\Rightarrow \) (i) folgt aus der Multiplikativität der Determinante. Die Implikationen (i) \(\Leftrightarrow \) (iv) \(\Leftrightarrow \) (iii) ergeben sich leicht aus Satz 11.26.

Dass (ii) aus (iii) folgt, kann man durch eine direkte Rechnung überprüfen. Nachdem wir den Begriff des Winkels eingeführt haben, können wir das aber wesentlich leichter sehen, weil wir dann \(f\) als Drehung um einen Winkel \(\alpha \) verstehen und \(g\) als die Drehung um den Winkel \(\alpha /2\) definieren können.

Proof

Die erste im Satz genannte Eigenschaft ist geeignet, um in beliebiger Dimension den Begriff der Drehung zu definieren. Siehe Ergänzung 7.60, Ergänzung 9.24.

Definition 11.28
  1. Eine Isometrie \(f\colon \mathbb R^n\to \mathbb R^n\) heißt Drehung, wenn \(\det (f) = 1\) gilt.

  2. Die Untergruppe von \(O_n(\mathbb R)\), die aus allen Drehungen besteht, mit anderen Worten der Kern der Gruppenhomomorphismus \(O_n(\mathbb R)\to \mathbb R^\times \), \(A\mapsto \det (A)\), heißt die spezielle orthogonale Gruppe und wird mit \(SO_n(\mathbb R)\) bezeichnet.

Ein anderer wichtiger Typ von Isometrien ist die Spiegelung an einem Untervektorraum der Dimension \(n-1\) in \(\mathbb R^n\) (wir sprechen auch von einem Unterraum »der Kodimension \(1\)« oder von einer Hyperebene).

Definition 11.29

Eine Isometrie \(f\colon \mathbb R^n\to \mathbb R^n\) heißt eine Spiegelung, wenn eine Hyperebene \(U\subseteq \mathbb R^n\), d.h. ein Untervektorraum der Dimension \(n-1\), und ein Vektor \(v\in \mathbb R^n\), der zu allen Elementen von \(U\) senkrecht ist, existieren, so dass \(f(u)=u\) für alle \(u\in U\) und \(f(v) = -v\).

Für \(\mathbb R^2\) erhalten wir, dass eine Isometrie genau dann eine Spiegelung ist, wenn ihre darstellende Matrix die Form \(\begin{pmatrix} a & b \\ b & -a \end{pmatrix}\) für \(a,b\in \mathbb R\) mit \(a^2+b^2 = 1\) hat.