9 Eigenwerte
Seien $K$ ein Körper, $V$ ein endlich-dimensionaler $K$-VR, $f\colon V\rightarrow V$ ein Endomorphismus.
Der Endomorphismus $f$ heißt diagonalisierbar, wenn eine Basis $\mathscr B$ von $V$ existiert, so dass $M^{\mathscr B}_{\mathscr B}(f)$ eine Diagonalmatrix ist.
Eine Matrix $A\in M_{n\times n}(K)$ heißt diagonalisierbar, wenn $S\in GL_n(K)$ existiert, so dass $SAS^{-1}$ eine Diagonalmatrix ist.
Es ist also $A$ genau dann diagonalisierbar, wenn $f_A\colon K^n\rightarrow K^n$, $x\mapsto Ax$, diagonalisierbar ist.
9.1 Eigenwerte, Eigenvektoren
Ein Vektor $v \in V\setminus \{ 0\} $ heißt Eigenvektor von $f$ zum Eigenwert $\lambda $, falls $f(v)=\lambda v$. Ein Element $\lambda \in K$ heißt Eigenwert der linearen Abbildung $f$, falls ein Vektor $v\in V\setminus \{ 0\} $ existiert, der EV von $f$ zum EW $\lambda $ ist.
Ist $\lambda $ ein Eigenwert von $f$, so heißt die Menge
aller Eigenvektoren zum Eigenwert $\lambda $ zusammen mit dem Nullvektor der Eigenraum von $f$ zum Eigenwert $\lambda $. (Dies ist ein Untervektorraum von $V$.)
Mit dieser Definition können wir sagen: Ein Endomorphismus ist genau dann diagonalisierbar, wenn eine Basis aus Eigenvektoren existiert.
Geometrische Interpretation. Beispiele.
Sei $f\colon V \rightarrow V$ ein Endomorphismus, $n=\dim V$, $\mathscr B$ eine Basis von $V$, $A = M^{\mathscr B}_{\mathscr B}(f)$. Sei $\lambda \in K$. Die folgenden Aussagen sind äquivalent:
$\lambda $ ist Eigenwert von $f$.
$\lambda $ ist Eigenwert von $A$.
$\mathop{\rm Ker}(f-\lambda \cdot \mathop{\rm id}\nolimits _V) \ne \{ 0 \} $
$\mathop{\rm Ker}(A-\lambda E_n) \ne \{ 0\} $
$\det (f-\lambda \cdot \mathop{\rm id}\nolimits _V) = 0$
$\det (A-\lambda E_n) = 0$
Die Eigenwerte einer oberen Dreiecksmatrix sind genau die Diagonaleinträge der Matrix.
Beispiel. $A = \left( \begin{array}{cc} 0 & 1 \\ 1 & 1 \end{array}\right)$ und die Fibonacci-Zahlen.
9.2 Eigenräume
Seien $f\colon V\rightarrow V$ ein Endomorphismus und $v_1, \dots , v_m$ Eigenvektoren von $f$ zu paarweise verschiedenen Eigenwerten von $f$. Dann sind $v_1$, …, $v_m$ linear unabhängig.
Sei $f\colon V\rightarrow V$ ein Endomorphismus.
$f$ hat höchstens $\dim V$ verschiedene Eigenwerte.
Hat $f$ genau $n$ verschiedene Eigenwerte, so ist $f$ diagonalisierbar.
Seien $V$ ein Vektorraum und $U_1,\dots , U_m\subseteq V$ Untervektorräume. Dann sind äquivalent:
Es ist $V= \sum U_i$ und für jedes $v\in V$ ist die Darstellung $V = \sum _{i=1}^m u_i$, $u_i\in U_i$, eindeutig.
Es ist $V= \sum U_i$ und für alle $i$ gilt $U_i \cap (\sum _{j\ne i} U_j) = \{ 0 \} $.
In diesem Fall schreiben wir $V = \bigoplus _{i=1}^m U_i$ und sagen, $V$ sei die direkte Summe der $U_i$.
Mit dieser Sprechweise können wir aus dem obigen Satz die Folgerung ableiten: Sei $f$ ein Endomorphismus von $V$ und sei $V’ \subseteq V$ der von den Eigenräumen $V_{\lambda _1}$, …, $V_{\lambda _m}$ von $f$ erzeugte Untervektorraum. Dann gilt $V’=\bigoplus V_{\lambda _i}$. Der Endomorphismus ist genau dann diagonalisierbar, wenn $V’=V$.
Googles “page rank”-Algorithmus als Eigenwertproblem.