Inhalt

10.2 Eigenräume

Wir haben gesehen, dass ein Endomorphismus \(f\) eines endlichdimensionalen Vektorraums \(V\) genau dann diagonalisierbar ist, wenn eine Basis aus Eigenvektoren besteht. Insbesondere zerfällt dann \(V\) in die direkte Summe der Eigenräume von \(f\) (siehe Satz 10.16, Korollar 10.17). Im allgemeinen können wir das nicht erwarten, aber die Eigenvektoren zu verschiedenen Eigenwerten sind in jedem Fall voneinander unabhängig, und zwar in dem folgenden präzisen Sinn.

Satz 10.13

Seien \(f\colon V\rightarrow V\) ein Endomorphismus eines \(K\)-Vektorraums \(V\) und \(v_1, \dots , v_m\) Eigenvektoren von \(f\) zu paarweise verschiedenen Eigenwerten von \(f\). Dann sind \(v_1\), …, \(v_m\) linear unabhängig.

Proof
Wir führen Induktion nach \(m\). Für \(m=1\) ist die Sache klar, da ein Eigenvektor nach Definition nicht der Nullvektor ist. Für den Induktionsschritt dürfen wir annehmen, dass sich der Nullvektor nur in trivialer Weise als Linearkombination von \(m-1\) Eigenvektoren zu paarweise verschiedenen Eigenvektoren darstellen lässt.

Seien \(a_i\in K\) mit

\[ a_1 v_1 + \cdots + a_m v_m = 0. \]

Wir wollen zeigen, dass alle \(a_i\) verschwinden. Anwendung von \(f\) liefert

\[ \lambda _1 a_1 v_1 + \cdots + \lambda _m a_m v_m = 0. \]

Wenn wir die ursprüngliche Linearkombination mit \(\lambda _1\) durchmultiplizieren und das Ergebnis von der vorherigen Gleichung abziehen, erhalten wir:

\[ (\lambda _2 - \lambda _1) a_2 v_2 + \cdots + (\lambda _m - \lambda _1) a_m v_m = 0. \]

Die Induktionsvoraussetzung liefert uns nun

\[ (\lambda _2 - \lambda _1) a_2 = \cdots = (\lambda _m - \lambda _1) a_m = 0 \]

und damit

\[ a_2 = \cdots a_m = 0, \]

denn die Differenzen \(\lambda _i - \lambda _1\), \(i=2, \dots , m\) sind nach Voraussetzung alle verschieden von \(0\). Dann folgt aber \(a_1v_1=0\), also muss auch \(a_1=0\) gelten.

Proof

Ergänzung 10.14

Wir erklären einen alternativen Beweis von Satz 10.13, der die Vandermonde-Determinante (Beispiel 9.20) benutzt.

Wir betrachten mit derselben Notation wie im Beweis des Satzes eine Linearkombination

\[ a_1 v_1 + \cdots + a_m v_m = 0. \]

Wir wollen zeigen, dass alle Koeffizienten \(a_i\) verschwinden.

Dazu wenden wir \(f\), \(f^2 := f\circ f\), \(f^3\), …, \(f^{m-1}\) auf diese Gleichung an. Weil die \(v_i\) nach Voraussetzung Eigenvektoren von \(f\) sind, erhalten wir insgesamt die \(m\) Gleichungen

\[ \begin{array}{rcccrcc} v_1 & + & \cdots & + & v_m & = & 0\\ \lambda _1 v_1 & + & \cdots & + & \lambda _m v_m & = & 0\\ \lambda _1^2 v_1 & + & \cdots & + & \lambda _m^2 v_m & = & 0\\ \lambda _1^3 v_1 & + & \cdots & + & \lambda _m^3 v_m & = & 0\\ \vdots & & & & \vdots & & \vdots \\ \lambda _1^{m-1} v_1 & + & \cdots & + & \lambda _m^{m-1} v_m & = & 0. \end{array} \]

Weil die \(\lambda _i\) nach Voraussetzung paarweise verschieden sind, ist die zugehörige Vandermonde-Determinante von Null verschieden, die zugrundeliegende Vandermonde-Matrix also invertierbar. Die Zeilen dieser Matrix sind also linear unabhängig und bilden eine Basis von \(K^m\). Unter der Abbildung

\[ g\colon K^m\longrightarrow V,\quad (x_1,\dots , x_n)^t\mapsto x_1a_1v_1 + \cdots x_na_nv_n, \]

werden alle Vektoren dieser Basis auf \(0\) abgebildet; genau das sagen die obigen Gleichungen aus. Da alle Vektoren einer Basis auf \(0\) abgebildet werden, handelt es sich bei \(g\) um die Nullabbildung. Andererseits liegen – als die Bilder der Standardbasisvektoren – alle \(a_iv_i\) im Bild von \(g\). Es gilt also \(a_iv_i=0\) für alle \(i\), und weil Eigenvektoren per Definition von Null verschieden sind, \(a_i=0\) für alle \(i\).

Korollar 10.15

Sei \(f\colon V\rightarrow V\) ein Endomorphismus eines endlichdimensionalen Vektorraums, \(n=\dim (V)\).

  1. Der Endomorphismus \(f\) hat höchstens \(n\) verschiedene Eigenwerte.

  2. Hat \(f\) genau \(n\) verschiedene Eigenwerte, so ist \(f\) diagonalisierbar.

Proof
Der erste Teil ist nach Satz 10.13 klar. Hat \(f\) genau \(n\) verschiedene Eigenwerte, so ist nach demselben Satz jede Familie, die aus je einem Eigenvektor zu jedem der Eigenwerte besteht, linear unabhängig, bildet also eine Basis.
Proof

Wir können die Situation gut beschreiben, indem wir den Begriff der direkten Summe von zwei Untervektorräumen folgendermaßen auf den Fall mehrerer Untervektorräume verallgemeinern:

Satz 10.16

Seien \(V\) ein Vektorraum und \(U_1,\dots , U_m\subseteq V\) Untervektorräume. Dann sind äquivalent:

  1. Es ist \(V= \sum _{i=1}^m U_i\) und für jedes \(v\in V\) ist die Darstellung \(v = \sum _{i=1}^m u_i\), \(u_i\in U_i\), eindeutig.

  2. Es ist \(V= \sum _{i=1}^m U_i\) und die einzige Möglichkeit, den Nullvektor von \(V\) als Summe \(0 = \sum _{i=1}^m u_i\), \(u_i\in U_i\), darzustellen, ist mit \(u_i=0\) für alle \(i\).

  3. Es ist \(V= \sum _{i=1}^m U_i\) und für alle \(i\) gilt \(U_i \cap \left(\sum _{j\ne i} U_j\right) = \{ 0 \} \).

  4. Der natürliche Homomorphismus \(\bigoplus _{i=1}^m U_i\to V\), \((u_1, \dots , u_m)\mapsto \sum _{i=1}^m u_i\), von der »äußeren« direkten Summe der \(U_i\) (Abschnitt 6.6) ist ein Isomorphismus.

In diesem Fall schreiben wir \(V = \bigoplus _{i=1}^m U_i\) und sagen, \(V\) sei die direkte Summe der \(U_i\).

Proof
Der Beweis ist eine leichte Übung.
Proof

Ist \(V\) endlichdimensional, so folgt in der Situation des Satzes, dass \(\dim (V) = \sum _{i=1}^m \dim (U_i)\) ist, und wenn diese Dimensionsgleichheit schon bekannt ist, genügt es dazu noch entweder \(V=\sum _{i=1}^m U_i\) oder die Eindeutigkeit der Darstellung wie in (i) oder (ii) – mit anderen Worten: entweder die Surjektivität oder die Injektivität in (iv) zu fordern.

Mit dieser Sprechweise können wir aus dem obigen Satz die Folgerung ableiten:

Korollar 10.17

Sei \(f\) ein Endomorphismus eines endlichdimensionalen Vektorraums \(V\), seien \(\lambda _1, \dots , \lambda _m\in K\) die paarweise verschiedenen Eigenwerte von \(f\) und sei \(V^\prime \subseteq V\) der von den Eigenräumen \(V_{\lambda _1}\), …, \(V_{\lambda _m}\) von \(f\) erzeugte Untervektorraum. Dann gilt \(V^\prime =\bigoplus _{i=1}^m V_{\lambda _i}\). Der Endomorphismus \(f\) ist genau dann diagonalisierbar, wenn \(V^\prime =V\).

Wir werden die Theorie der Eigenwerte einer linearen Abbildung in der Vorlesung Lineare Algebra 2 weiter studieren und dann noch wesentlich besser verstehen. Beispiele für Aussagen, die wir im kommenden Semester beweisen werden, sind die folgenden.

  1. Sei \(A\in M_n(\mathbb R)\) symmetrisch, d.h. es gelte \(A=A^t\). Dann ist \(A\) diagonalisierbar.

  2. Sei \(K\) der Körper der rationalen Zahlen (oder allgemeiner irgendein Körper, in dem \(1+1+1\ne 0\) gilt) und sei \(n\in \mathbb N\). Sei \(A\in M_n(K)\) eine Matrix mit \(A^3 = A\). Dann ist \(A\) diagonalisierbar.

    Wichtiger als dieses konkrete Beispiel ist natürlich, woran es liegt, dass die obige Aussage richtig ist, und wie/ob sie sich verallgemeinern lässt.

  3. Wir werden mit der Jordanschen Normalform (und der rationalen Normalform) auch für nicht-diagonalisierbare Endomorphismen eines endlichdimensionalen Vektorraums \(V\) ein Ergebnis der Art beweisen, dass sich immer eine Basis von \(V\) finden lässt, so dass die zugehörige Darstellungsmatrix eine »relativ einfache« Form hat. Und zwar konkret, dass es sich um eine Block-Diagonalmatrix handelt, so dass in den Blöcken auf der Diagonale nur an ganz bestimmten, wenigen Stellen Einträge \(\ne 0\) stehen.