Inhalt

10.3 Ergänzungen *

Das Thema Eigenwerte ist (wieder einmal …) ein Thema, zu dem man ganze Bücher füllen könnte. Es folgt eine kleine Auswahl der möglichen Themen für Ergänzungen – hoffentlich finden Sie etwas, was Sie interessiert. In der Linearen Algebra 2 werden wir dann nochmals die Gelegenheit haben, uns diesem Theama zu widmen.

Bemerkung 10.18

Wir kommen noch einmal auf die Spur einer quadratischen Matrix zu sprechen, die wir als die Summe ihrer Diagonaleinträge definiert hatten. Ist \(A\) eine obere Dreiecksmatrix, so sind die Diagonaleinträge genau die Eigenwerte von \(A\), und die Spur ist also die Summe der Eigenwerte, jedenfalls dann, wenn die Diagonaleinträge paarweise verschieden sind. Wenn derselbe Wert mehrfach auf der Diagonale auftritt, müssen wir ihn bei der Berechnung der Spur entsprechend mehrfach berücksichtigen. Wir sprechen davon, dass der Wert mit einer gewissen »Vielfachheit« auftrete.

Allgemeiner den Eigenwerten einer beliebigen Matrix eine »Vielfachheit« zuzuordnen, wird ein wichtiger Schritt in der weiteren Entwicklung der Eigenwerttheorie sein (dann in der Linearen Algebra 2, wenn wir das charakteristische Polynom einführen).

Sei nun \(K\) ein Körper der Charakteristik \(0\), das heißt, dass die natürliche Abbildung \(\mathbb N\to K\), \(n\mapsto 1+\cdots + n\) (\(n\) Summanden), injektiv ist. Dies ist für den Körper der rationalen Zahlen und somit für alle seine Erweiterungskörper der Fall. Dann kann man die folgende nicht-offensichtliche Aussage zeigen. Sind \(A\), \(B\) quadratische Matrizen, für die \(\operatorname{Spur}(A^j) = \operatorname{Spur}(B^j)\) für alle \(j\ge 0\) gilt, dann haben \(A\) und \(B\) dieselben Eigenwerte.

Weil für einen Körper der Charakteristik \(p {\gt} 0\) gilt, dass \(\operatorname{Spur}(E_p)=0\) ist, ist dieses Ergebnis im Fall positiver Charakteristik nicht richtig: \(E_p\) und die Nullmatrix haben natürlich nicht dieselben Eigenwerte.

Beispiel 10.19

Wir betrachten noch einmal die Fibonacci-Folge \((F_n)_{n\ge 0}\), siehe Beispiel 5.60. Wir setzen wieder \(A = \left( \begin{array}{cc} 1 & 1 \\ 1 & 0 \end{array}\right)\). Wir hatten gesehen, dass

\[ \left( \begin{array}{c} F_{n+1} \\ F_{n} \end{array} \right) = A^{n} \left( \begin{array}{c} 1 \\ 0 \end{array} \right) \]

für alle \(n\ge 0\) gilt. Indem wir die Matrix \(A\) diagonalisieren, können wir daraus eine Formel für die \(n\)-te Fibonacci-Zahl herleiten. (Vergleiche Ergänzung 6.60 für einen völlig anderen Beweis dafür.)

Eine Zahl \(\lambda \) ist genau dann ein Eigenwert von \(A\) (in \(\mathbb R\)), wenn es einen Vektor \(v\in \mathbb R^2\) gibt mit \(Av = \lambda v\) und \(v\ne 0\), also wenn das homogene lineare Gleichungssystem mit Koeffizientenmatrix

\[ \left( \begin{array}{cc} 1-\lambda & 1 \\ 1 & -\lambda \end{array} \right) \]

eine nichttriviale Lösung hat. Die Determinante dieser Matrix ist \(-(1-\lambda )\lambda - 1 = \lambda ^2 - \lambda -1\). Sie verschwindet für

\[ \lambda = \frac{1+\sqrt{5}}{2}\quad \text{und}\quad \lambda = \frac{1-\sqrt{5}}{2}. \]

Wir setzen \(\varphi = \frac{1+\sqrt{5}}{2}\). Dann ist \(1-\varphi = \frac{1-\sqrt{5}}{2}\). Die beiden Eigenwerte von \(A\) sind also \(\varphi \) und \(1-\varphi \).

Da \(A\) also \(2\) Eigenwerte hat, muss die Matrix diagonalisierbar sein. Für \(\lambda \in \{ \varphi , 1-\varphi \} \) sind die Zeilen der obigen Matrix linear abhängig, im Sinne des linearen Gleichungssystems stellen sie äquivalente Gleichungen dar. Wir können daher Eigenvektoren finden, indem wir beispielsweise die Gleichung zur zweiten Zeile lösen, und kommen auf

\[ b_1 = \left( \begin{array}{c} \varphi \\ 1 \end{array} \right),\quad b_2 = \left( \begin{array}{c} 1-\varphi \\ 1 \end{array} \right) \]

Diese beiden Vektoren bilden eine Basis von \(\mathbb R^2\) aus Eigenvektoren von \(A\).

Durch den entsprechenden Basiswechsel erhalten wir die Darstellung

\[ A = \frac{1}{\sqrt{5}} \left( \begin{array}{cc} \varphi & 1-\varphi \\ 1 & 1 \end{array} \right) \left( \begin{array}{cc} \varphi & \\ & 1-\varphi \end{array} \right) \left( \begin{array}{cc} 1 & \varphi - 1 \\ -1 & \varphi \end{array} \right) \]

(denn \(\left( \begin{array}{cc} \varphi & 1-\varphi \\ 1 & 1 \end{array} \right)^{-1} = \frac{1}{\sqrt{5}} \left( \begin{array}{cc} 1 & \varphi - 1 \\ -1 & \varphi \end{array} \right)\)).

Damit bekommen wir

\[ A^n = \frac{1}{\sqrt{5}} \left( \begin{array}{cc} \varphi & 1-\varphi \\ 1 & 1 \end{array} \right) \left( \begin{array}{cc} \varphi ^n & \\ & (1-\varphi )^n \end{array} \right) \left( \begin{array}{cc} 1 & \varphi - 1 \\ -1 & \varphi \end{array} \right), \]

also

\begin{align*} \left( \begin{array}{c} F_{n+1} \\ F_{n} \end{array} \right) & = A^n \left( \begin{array}{c} 1 \\ 0 \end{array} \right) = \frac{1}{\sqrt{5}} \left( \begin{array}{cc} \varphi & 1-\varphi \\ 1 & 1 \end{array} \right) \left( \begin{array}{cc} \varphi ^n & \\ & (1-\varphi )^n \end{array} \right) \left( \begin{array}{c} 1 \\ -1 \end{array} \right)\\ & = \frac{1}{\sqrt{5}} \left( \begin{array}{cc} \varphi & 1-\varphi \\ 1 & 1 \end{array} \right) \left( \begin{array}{cc} \varphi ^n \\ - (1-\varphi )^n \end{array} \right)\\ & = \frac{1}{\sqrt{5}} \left( \begin{array}{c} \varphi ^{n+1} - (1-\varphi )^{n+1} \\ \varphi ^{n} - (1-\varphi )^{n} \\ \end{array} \right), \end{align*}

das heißt

\[ F_n = \frac{\varphi ^n - (1-\varphi )^n}{\sqrt5} = \frac{1}{\sqrt5}\left( \left(\frac{1+\sqrt{5}}{2}\right)^n - \left(\frac{1-\sqrt{5}}{2}\right)^n \right). \]

Ergänzung 10.20 Divisonsalgebren, Fortsetzung

Wir kommen nun auf die Frage nach der Existenz von endlich-dimensionalen Divisionsalgebren über den reellen und den komplexen Zahlen zurück. Siehe Ergänzung 6.65, wo wir die folgenden Sätze bereits angekündigt hatten.

Satz 10.21

Die einzige Divisionsalgebra über den reellen Zahlen, die als \(\mathbb R\)-Vektorraum ungerade endliche Dimension hat, ist der Körper \(\mathbb R\) selbst.

Proof
Sei \(A\) eine Divisionsalgebra über \(\mathbb R\), so dass \(\dim (A)\) eine ungerade Zahl ist. Wir wollen zeigen, dass \(A=\mathbb R\), mit anderen Worten, dass die Inklusion \(\mathbb R\subseteq A\) eine Gleichheit ist. Sei dazu \(a\in A\). Die Abbildung \(m_a\colon A\to A\), \(x\mapsto ax\) ist ein \(\mathbb R\)-Vektorraum-Homomorphismus. Da die Vektorraumdimension von \(A\) ungerade ist und jede Polynomfunktion von ungeradem Grad eine Nullstelle in \(\mathbb R\) hat, sehen wir (Beispiel 10.11 (3)), dass \(m_a\) einen Eigenvektor \(x\) zu einem Eigenwert \(\lambda \in \mathbb R\) besitzt, also \(ax = \lambda x\). Es folgt \((a-\lambda )x = 0\), und da \(x\) als Eigenvektor von \(0\) verschieden ist und \(A\) ein Schiefkörper ist, dass \(a-\lambda = 0\), also \(a = \lambda \in \mathbb R\).
Proof

Der entscheidende Punkt im Beweis war, dass jede Polynomfunktion der Form \(\lambda \mapsto \det (m_a-\lambda \operatorname{id})\) eine Nullstelle hat. Dasselbe Argument zeigt also den folgenden Satz (wo wir »sicherheitshalber« voraussetzen, dass \(K\) unendlich sei, damit wir vernünftig über den Grad einer Polynomfunktion sprechen können; in der Linearen Algebra 2 werden wir die Situation noch besser aufklären).

Satz 10.22

Sei \(K\) ein unendlicher Körper, so dass jede Polynomfunktion vom Grad \({\gt} 0\) eine Nullstelle in \(K\) hat. Dann gibt es außer \(K\) selbst keine endlich-dimensionalen Divisionsalgebren über \(K\).

Einen Körper, der die Voraussetzungen des Satzes erfüllt, nennt man algebraisch abgeschlossen. Es gilt

Theorem 10.23 Fundamentalsatz der Algebra

Der Körper der komplexen Zahlen ist algebraisch abgeschlossen.

Auch wenn der Satz den Namen Fundamentalsatz der Algebra trägt, ist es natürlicher, ihn mit Mitteln der Analysis (oder der Funktionentheorie, der Analysis einer komplexen Veränderlichen) zu beweisen.

Zum Abschluss noch eine Bemerkung zur Situation über \(\mathbb R\), wo wir oben ja nur die Existenz von Divisionsalgebren mit ungerader Dimension \({\gt} 1\) ausgeschlossen haben. Wir haben ja mit den komplexen Zahlen und den Quaternionen schon zwei Divisionsalgebren über \(\mathbb R\) kennengelernt, wobei \(\mathbb C\) sogar kommutativ ist, der Schiefkörper der Quaternionen jedoch nicht. Der Satz von Frobenius besagt, dass es neben diesen keine weiteren endlichdimensionalen Divisionsalgebren über \(\mathbb R\) gibt. Lässt man die Bedingung der Assoziativitä fallen, kommen noch als einzige weitere Möglichkeit die Oktonionen hinzu, die über \(\mathbb R\) die Vektorraumdimension \(8\) haben.

Ergänzung 10.24 Der Page-rank-Algorithmus, Fortsetzung

Wir setzen die Diskussion von Ergänzung 7.66 fort. Wir hatten dort die »Google-Matrix« \(G\) gefunden, eine \((N\times N)\)-Matrix, deren Einträge positive reelle Zahlen sind und deren Spaltensummen alle \(=1\) sind. Unser Ziel ist es, eine Lösung des linearen Gleichungssystems \((G-E_N)x = 0\) zu finden, so dass alle Einträge von \(x\) positiv sind und die Summe der Eintrage \(=1\) ist. Hat man einmal eine Lösung, in der alle Einträge positiv sind, kann man die Summe natürlich durch eine geeignete Skalierung auf \(1\) bringen. In der neu eingeführten Sprache der Eigenwerte sagen wir, dass \(x\) ein Eigenvektor von \(G\) zum Eigenwert \(1\) ist. Wir haben schon gezeigt, dass genau ein solches \(x\) existiert. Es bleibt aber die Frage, wie man versuchen könnte, \(x\) zu berechnen, denn der Gauß-Algorithmus ist für eine Matrix dieser Größe nicht praktisch durchführbar. Wie wir sehen werden, ist die Sichtweise der Eigenwerttheorie an dieser Stelle hilfreich. Wir beginnen mit dem folgenden Satz, der noch einmal zusammenfasst, was wir schon bewiesen haben, und eine wichtige Zusatzinformation über die Eigenwerte von \(G\) liefert.

Satz 10.25

Sei \(G=(G_{ij})_{i,j}\in M_{N\times N}(\mathbb R)\) eine Matrix mit \(G_{ij} {\gt} 0\) für alle \(i\), \(j\), und so dass alle Spaltensummen \(=1\) sind.

  1. Es ist \(\dim V_1(G) = 1\). Ist \(x\in V_1(G)\), so sind entweder alle Einträge positiv, oder alle Einträge negativ.

  2. Für alle Eigenwerte \(\lambda \ne 1\) von \(G\) gilt \(|\lambda | {\lt} 1\).

Proof
zu (1). Diese Aussagen haben wir bereits gezeigt (Korollar 7.69), sie sind hier lediglich in die Terminologie der Eigenräume übersetzt.

zu (2). Um die anderen Eigenwerte abzuschätzen, betrachten wir die transponierte Matrix \(G^t\). Wir wissen (Lemma 10.10), dass \(G\) und \(G^t\) dieselben Eigenwerte haben, und dass die Dimensionen der entsprechenden Eigenräume gleich sind. Also gilt \(\dim V_1(G^t) = 1\). Für die transponierte Matrix (deren Zeilensummen alle gleich \(1\) sind), können wir direkt einen Eigenvektor zum Eigenwert \(1\) angeben \((1, \dots , 1)^t\). (Natürlich wird dies praktisch nie ein Eigenvektor von \(G\) sein, und es gibt keine Möglichkeit, durch einen Trick daraus einen Eigenvektor von \(G\) zu berechnen!)

Sei nun \(\lambda \ne 1\) ein Eigenwert von \(G\) und \(G^t\) und sei \(v\) ein Eigenvektor von \(G^t\) zum Eigenwert \(\lambda \). Weil \(V(1, G^t) = \langle (1, \dots , 1)^t \rangle \) ist, sehen wir, dass nicht alle Komponenten von \(v\) gleich sein können.

Sei \(i\in \{ 1, \dots , N\} \), so dass \(|v_i|\) maximal ist. Dann gilt

\[ |\lambda v_i| = |(G^tv)_i| = \left| \sum _{j=1}^N (G^t)_{ij} v_j \right| \le \sum _{j=1}^N (G^t)_{ij} |v_j| {\lt} \left| v_i\right| \sum _{j=1}^N (G^t)_{ij} = \left| v_i \right|. \]

Es folgt \(|\lambda | {\lt} 1\), wie gewünscht.

Übrigens: Wie man sieht, gilt dieses Argument sogar für alle Eigenwerte von \(G\) in \(\mathbb C\). (Und im allgemeinen können Matrizen \(G\) mit den obigen Eigenschaften Eigenwerte in \(\mathbb C\setminus \mathbb R\) haben.)

Proof

Nun zu den Methoden, mit denen man \(x\) berechnen kann. Für eine Folge \((v_{(n)})_n\) von Vektoren schreiben wir \(x = \lim _{n\to \infty } v_{(n)}\), wenn für alle \(i\) gilt: \(x_i = \lim _{n\to \infty } v_{(n), i}\). (Wir schreiben \(v_{(n)}\) statt \(v_n\) um eine Verwechslung mit der Notation für den \(n\)-ten Eintrag eines Vektors \(v\) zu vermeiden. Jedes \(v_{(n)}\) ist ein Vektor mit Einträgen \(v_{(n), i}\).)

Satz 10.26

Sei \(G=(G_{ij})_{i,j}\in M_{N\times N}(\mathbb R)\) eine Matrix mit \(G_{ij} {\gt} 0\) für alle \(i\), \(j\), und so dass alle Spaltensummen \(=1\) sind. Sei \(x\in V_1(G)\) der eindeutig bestimmte Vektor mit \(\sum _i x_i=1\).

Sei \(v\) irgendein Vektor mit positiven Einträgen und \(\sum _i v_i=1\). Dann gilt

\[ x = \lim _{n\to \infty } G^n v. \]

Proof

Wir führen den Beweis, um das Beweisprinzip transparent darzustellen, unter der Zusatzannahme aus, dass die Matrix \(G\) diagonalisierbar ist. Diese Annahme ist allerdings in der Praxis typischerweise nicht erfüllt. Siehe den in Frage 2.7 zitierten Artikel von Bryan und Leise (Prop. 4, Prop. 5) für weitere Informationen, wie man den allgemeinen Fall behandelt.

Ist \(G\) diagonalisierbar, dann können wir eine Basis \(\mathscr B=(b_1, \dots , b_N)\) aus Eigenvektoren von \(G\) finden. Dabei sei \(b_1 = x\) (mit Eigenwert \(1\)). Sei \(\lambda _i\) der Eigenwert zu \(b_i\). Es gilt dann \(\lvert \lambda _i\rvert {\lt} 1\) für alle \(i {\gt} 1\). Wenn wir

\[ v = a_1 b_1 + a_2 b_2 + \cdots + a_N b_N \]

schreiben, so folgt

\[ G^n v = a_1 b_1 + a_2\lambda _2^n b_2 + \cdots + a_N \lambda _N^n b_N. \]

Weil \(\lim _{n\to \infty } \lambda _i = 0\) gilt, folgt

\[ \lim _{n\to \infty } G^nv = a_1 b_1. \]

Da \(v\) und damit alle \(G^n v\) ebenso wie \(b_1=x\) als Summe aller Einträge \(1\) haben, folgt auch \(a_1 = 1\). (In der Tat kann man auch leicht direkt sehen, dass für alle \(b_i\) mit \(i {\gt} 1\) die Summe der Einträge gleich \(0\) ist. Das liegt daran, dass \(G\) den \((N-1)\)-dimensionalen Unterraum aller Vektoren mit dieser Eigenschaft in sich selbst abbildet und \(\langle x\rangle \) ein Komplement dazu ist, das ebenfalls in sich selbst abgebildet wird.)

Proof

Es zeigt sich, dass die Folge der \(G^n v\) wie im Satz ziemlich schnell konvergiert, zwischen \(50\) und \(100\) Iterationen waren angeblich für Google ausreichend, um den gesuchten Vektor \(x\) hinreichend genau anzunähern.

Beispiel 10.27

Wenn man dieses Verfahren mit dem Mini-Internet auf Beispiel 2.8 durchführt, kommt man auf das folgende Ergebnis:

Mit \(v = \frac16\cdot (1,1,1,1,1,1)^t\) ist der Unterschied zwischen \(x\) und \(G^{5}v\) in jedem Eintrag \({\lt} 0.0058\) und die Reihenfolge bezüglich Relevanz ist für diese beiden Vektoren (und ebenso für alle \(G^n v\) mit \(n{\gt}5\)) dieselbe. Der Unterschied zwischen \(x\) und \(G^{14}v\) ist in jedem Eintrag kleiner als \(0.0001\).

Es bleibt natürlich ein nicht-triviales Problem, diesen Eigenvektor der Google-Matrix wirklich auszurechnen, und sicher hat Google eine Kombination von verschiedenen Methoden (und Tricks) benutzt, um das zu machen. Diese Rechnung wurde auch bei weitem nicht täglich, sondern eher im Abstand von mehreren Monaten durchgeführt.

Eigenwerte von (großen) Matrizen zu berechnen, ist auch an vielen anderen Stellen ein Problem. Die hier vorgestellte Potenzmethode ist eine von mehreren Möglichkeiten, die man dafür kennt.

Ergänzung 10.28

Die Eigenwerte und Eigenvektoren einer diagonalisierbaren Matrix \(A\in M_n(\mathbb R)\) spielen eine Rolle bei der Lösung des durch \(A\) gegebenen Systems von linearen Differentialgleichungen \(y^\prime = Ay\), was die Kurzschreibweise dafür ist, dass \(n\) (beliebig oft) differenzierbare Funktionen \(y_i\colon \mathbb R\to \mathbb R\) gesucht sind, für deren Ableitungen

\[ y_i^\prime (x) = \sum _{j=1}^n a_{ij} y_j(x) \]

ist. Hier seien \(a_{ij}\in \mathbb R\) die Einträge von \(A\).

Ist \(v=(v_1,\dots , v_n)^t \in \mathbb R^n\) ein Eigenvektor von \(A\) zum Eigenwert \(\lambda \), so ist durch

\[ y_i(x) = v_i \exp (\lambda x) \]

eine Lösung des Systems gegeben, weil

\[ y_i^\prime (x) = v_i \lambda \exp (\lambda x) = \sum _{j=1}^n a_{ij} v_j\exp (\lambda x), \]

denn \(Av=\lambda v\) impliziert \(\lambda v_i = \sum _{j=1}^n a_{ij} v_j\) für alle \(i\). Der Ausdruck auf der rechten Seite ist \(\sum _{j=1}^n a_{ij} y_j(x)\), wie gewünscht.

Man kann zeigen, dass in dem Fall, dass \(A\) diagonalisierbar ist, die Lösungen, die man so aus einer Basis von Eigenvektoren von \(A\) erhält, eine Basis vom Vektorraum aller Lösungen dieses Systems von Differentialgleichungen bilden.

Mit der Erweiterung der Theorie, die wir in der Linearen Algebra 2 erreichen werden, speziell dem Satz über die Jordansche Normalform, kann man auch den Fall von Matrizen \(A\) behandeln, die nicht diagonalisierbar sind. Dies ist die Situation, in der die lineare Algebra ihre Kraft wirklich ausspielen kann.

Weitere Informationen (aus Sicht der linearen Algebra) finden sich in  [ Kl ] , Abschnitte 5.5 und 5.7. Aus Sicht der Theorie der Differentialgleichungen wird dieser Sachverhalt wohl in jedem Buch über gewöhnliche Differentialgleichungen dargestellt.

Ergänzung 10.29 SEIR-Modell für die Ausbreitung einer Epidemie

Aus aktuellem Anlass … sei erwähnt, dass auch die Standardmodelle für die Ausbreitung einer Epidemie die Eigenwertsprache benutzen. Die Basisreproduktionszahl \(R_0\), die im Moment im Fall des Corona-Virus eine wichtige Kennzahl für die erwartete weitere Entwicklung der Epidemie ist, kann als Eigenwert einer Matrix (der sogenannten next generation matrix) definiert werden.

Alle gängigen Modelle basieren auf Systemen von Differentialgleichungen, die nicht unbedingt die einfache Form aus Ergänzung 10.28 haben, aber oft durch ein solch einfaches System gut angenähert werden können.

Auf Englisch heißen Eigenwerte, Eigenvektoren und Eigenräume üblicherweise eigenvalues, eigenvectors und eigenspaces. Das sind die scary German terms, auf die im folgenden Zitat angespielt wird.

It turns out that there is a straightforward extension of the theory for structured epidemic models. The mathematics behind this theory is not especially difficult, but it does involve scary German terms that are not familiar to the non-engineers in our midst …

J. H. Jones, Notes on \(\mathcal R_0\), May 2007

Ein für die Corona-Pandemie wichtiges Modell ist das sogenannt SEIR-Modell. Dazu hoffentlich demnächst an dieser Stelle noch etwas mehr …