7.1 Lineare Abbildungen
In diesem Kapitel definieren und untersuchen wir den Begriff der linearen Abbildung. Eine lineare Abbildung ist eine Abbildung \(f\colon V\to W\) zwischen Vektorräumen \(V\) und \(W\) über demselben Körper \(K\), die »mit den Vektorraum-Strukturen verträglich« ist (Definition 7.1). Zwei Punkte, die diesen Begriff motivieren, sind die folgenden:
Es ist normalerweise nicht sehr interessant, beliebige Abbildungen zwischen Vektorräumen zu betrachten. Genauso wie man zum Beispiel in der Analysis nicht alle, sondern in der Regel nur stetige oder sogar nur differenzierbare Abbildungen betrachtet, ist es im Kontext der linearen Algebra vernünftig, sich auf lineare Abbildungen einzuschränken.
Etwas konkreter: Sei \(K\) ein Körper und seien \(V\) und \(W\) endlich-dimensionale \(K\)-Vektorräume. Ist \(f\colon V\to W\) eine bijektive lineare Abbildung, dann folgt \(\dim V=\dim W\). Andererseits gibt es für unendliche Körper \(K\) und endlich-dimensionale Vektorräume \(V\) und \(W\) der Dimension \({\gt}0\) immer eine Bijektion \(V\to W\) – ohne die Linearität ist es aber unmöglich, damit die Vektorräume \(V\) und \(W\) in nützlicher Weise zueinander in Beziehung zu setzen.
Wir haben in Abschnitt 5.3.3 zu einer Matrix \(A\in M_{m\times n}(K)\) über einem Körper \(K\) die Abbildung \(\mathbf f_A\colon K^n\to K^m\), \(x\mapsto Ax\), betrachtet. Es ist wichtig, eine einfache Charakterisierung dafür zu haben, welche Abbildungen \(K^n\to K^m\) von dieser Form für eine geeignete Matrix \(A\) sind. Es ist offensichtlich, dass alle Abbildungen \(\mathbf f_A\) lineare Abbildungen im Sinne von Definition 7.1 sind, und nicht sehr schwierig zu sehen, dass genau die linearen Abbildungen \(K^n\to K^m\) die Form \(\mathbf f_A\) haben. Mit dieser Korrespondenz zwischen Matrizen und linearen Abbildungen werden wir uns ausführlich in Abschnitt 7.3 befassen.
Sei \(K\) ein Körper. Seien \(V\), \(W\) Vektorräume über \(K\). Wir nennen eine Abbildung \(f\colon V\rightarrow W\) eine lineare Abbildung (oder \(K\)-lineare Abbildung, oder (Vektorraum-)Homomorphismus) von \(V\) nach \(W\), falls
für alle \(v,v^\prime \in V\) gilt \(f(v+v^\prime ) = f(v)+f(v^\prime )\), und
für alle \(a\in K\), \(v\in V\) gilt \(f(av) = af(v)\).
Sind \(V\), \(W\) Vektorräume über \(K\), so verstehen wir unter der Nullabbildung \(f\colon V\to W\) die konstante Abbildung \(v\mapsto 0\). Dies ist eine lineare Abbildung.
Ist \(V\) ein \(K\)-Vektorraum, so ist die identische Abbildung \(\operatorname{id}_V\) eine lineare Abbildung.
Ist \(V\) ein \(K\)-Vektorraum und \(U\subseteq V\), so ist die Inklusionsabbildung \(U\to V\), \(u\mapsto u\), eine lineare Abbildung.
Seien \(m, n\ge 0\) und \(A\in M_{m\times n}(K)\) eine Matrix. Wir haben in Definition 5.43 die Abbildung \(\mathbf f_A\colon K^n\to K^m\), \(x\mapsto Ax\), definiert. Weil das Matrizenprodukt das Distributivgesetz erfüllt und mit der Multiplikation mit Skalaren aus \(K\) kompatibel ist (\(A(ax) = a(Ax)\)), ist dies eine lineare Abbildung. In Satz 7.26 werden wir sehen, dass jede lineare Abbildung \(K^n\to K^m\) die Form \(\mathbf f_A\) für eine eindeutig bestimmte Matrix \(A\in M_{m\times n}(K)\) hat.
Insbesondere kennen wir mit den Abbildungen aus Beispiel 5.49 schon einige lineare Abbildungen.
Wir haben – siehe Bemerkung 5.5 – die Addition und Skalarmultiplikation in \(\mathbb R^2\) geometrisch interpretiert. In diesem Sinne können wir die beiden Bedingungen, dass eine Abbildung \(f\colon \mathbb R^2\to \mathbb R^2\) (und analog Abbildungen \(\mathbb R^n\to \mathbb R^m\)) linear ist, folgendermaßen in eine geometrische Sprache übersetzen. Wir setzen der Einfachheit halber voraus, dass \(f\) bijektiv ist. (Sonst muss man in (b) auch zulassen, dass die Ecken des »Parallelogramms« alle auf einer Geraden liegen, und es ist dann lästiger zu formulieren, was man genau als Bedingung verlangen möchte. Und es geht hier ja nicht darum, eine äquivalente Definition der Linearität zu geben, sondern den Begriff mit der geometrischen Anschauung zusammenzubringen.)
Die Abbildung \(f\) bildet den Ursprung \(0\) auf den Ursprung ab,
sind \(0\), \(u\), \(v\), \(w\) vier Ecken eines Parallelogramms, so sind auch \(0=f(0)\), \(f(u)\), \(f(v)\), \(f(w)\) vier Ecken eines Parallelogramms, und
\(f\) bildet jede Ursprungsgerade \(\mathbf g\) auf eine Ursprungsgerade ab: \(f(\langle v \rangle ) = \langle f(v)\rangle \), und die induzierte Abbildung zwischen diesen Geraden ist eine »Streckung«.
Die Verkettung von linearen Abbildungen ist wieder eine lineare Abbildung.
Der Beweis ist eine leichte Rechnung, zum Beispiel gilt für \(f\colon W\to U\), \(g\colon V\to W\), \(v\in V\), \(a\in K\):
Ist \(f\) eine lineare Abbildung, so gilt \(f(0)=0\) (benutze Eigenschaft (b) mit \(a=0\) und irgendeinem \(v\in V\), zum Beispiel \(v=0\)).
Manchmal ist die folgende einfache Umformulierung nützlich. Sei \(f\colon V\to W\) eine Abbildung zwischen \(K\)-Vektorräumen \(V\) und \(W\). Die Abbildung \(f\) ist genau dann eine lineare Abbildung, wenn \(f(av+bv^\prime ) = af(v) + bf(v^\prime )\) für alle \(v, v^\prime \in V\), \(a,b\in K\). Der Beweis der Äquivalenz ist eine einfache Übungsaufgabe.
Induktiv zeigt man für jede lineare Abbildung \(f\colon V\to W\): Für Elemente \(v_1,\dots , v_n\in V\), \(a_1, \dots , a_n\in K\) gilt \(f\left(\sum _{i=1}^n a_iv_i\right) = \sum _{i=1}^n a_i f(v_i)\).
Dass für jede lineare Abbildung \(f\) im Sinne unserer Definition \(f(0)=0\) gelten muss, bedeutet insbesondere, dass wir diesen Begriff mit einer etwas anderen Bedeutung benutzen, als es in der Schule (und teilweise auch in anderen Bereichen der Mathematik) üblich ist. Ist zum Beispiel \(K=\mathbb R\), so sind die einzigen Vektorraum-Homomorphismen \(\mathbb R^1\to \mathbb R^1\) die Abbildungen \(x\mapsto ax\), \(a\in \mathbb R\). Die Abbildungen \(\mathbb R\to \mathbb R\), \(x\mapsto mx+b\) für \(m,b\in \mathbb R\), deren Funktionsgraph eine Gerade in \(\mathbb R^2\) ist, bezeichnen wir für \(b\ne 0\) in der linearen Algebra nicht als lineare Abbildungen.
Dann ist \(\operatorname{Hom}_K(V,W)\) ein Untervektorraum des \(K\)-Vektorraums \(\operatorname{Abb}(V, W)\) (siehe Beispiel 6.2). In der Tat liegt offenbar die Nullabbildung in \(\operatorname{Hom}_K(V, W)\), und sind \(f\) und \(g\) lineare Abbildungen \(V\to W\) und ist \(a\in K\), so prüft man leicht nach, dass die Abbildungen
ebenfalls linear sind. Zum Beispiel gilt
Seien \(K\) ein Körper, \(I\) eine Menge, und sei für jedes \(i\in I\) ein \(K\)-Vektorraum \(V_i\) gegeben. Dann sind für \(j, j^\prime \in I\) die Abbildungen
\[ V_j \longrightarrow \bigoplus _{i\in I} V_i \longrightarrow \prod _{i\in I} V_i \longrightarrow V_{j^\prime }, \]die gegeben sind durch
\[ v_j \mapsto (0,\dots , 0, \underbrace{v_j}_{\text{bei Index}\ j}, 0, \dots , 0),\quad (v_i)_{i\in I} \mapsto (v_i)_{i\in I},\quad (v_i)_{i\in I} \mapsto v_{j^\prime } \]lineare Abbildungen.
Der Grundkörper \(K\) spielt in der Definition von linearen Abbildungen durch die Skalarmultiplikation eine Rolle: Die Abbildung \(\mathbb C\to \mathbb C\), \(a+bi \mapsto a-bi\) (mit \(a,b\in \mathbb R\)) ist ein Homomorphismus von \(\mathbb R\)-Vektorräumen (mit anderen Worten: es handelt sich um eine lineare Abbildung, wenn wir \(\mathbb C\) als \(\mathbb R\)-Vektorraum betrachten), aber kein Homomorphismus von \(\mathbb C\)-Vektorräumen (denn die Abbildung ist nicht kompatibel mit Skalarmultiplikation mit beliebigen Elementen aus \(\mathbb C\)).
Seien \(K\) ein Körper, \(V\) ein \(K\)-Vektorraum und \(v\in V\), \(v\ne 0\). Die Abbildung \(t_v\colon V\to V\), \(w\mapsto w+v\), heißt die Verschiebung oder Translation mit (oder um) \(v\).
Dies ist keine lineare Abbildung, wie man zum Beispiel schon daran sieht, dass \(t_v(0) = v\ne 0\).
Für den besonders wichtigen Fall, dass Definitions- und Wertebereich einer linearen Abbildung übereinstimmen, vereinbaren wir eine eigene Benennung:
Ein anderer wichtiger Fall ist derjenige, dass zu einer linearen Abbildung \(f\colon V\to W\) eine Umkehrabbildung \(g\) existiert. Wir setzen in der folgenden Definition voraus, dass die Umkehrabbildung \(g\) ebenfalls linear ist. Man kann dann mit \(f\) und \(g\) sozusagen ohne Informationsverlust zwischen \(V\) und \(W\) hin- und herwechseln; siehe Lemma 7.11 für einige beispielhafte konkrete Aussagen dazu. Dieses Konzept des Isomorphismus ist in sehr vielen Situationen von großer Wichtigkeit, nicht nur bei Vektorräumen. Im Fall von Vektorräumen sehen wir in Lemma 7.10, dass jede bijektive lineare Abbildung automatisch eine lineare Abbildung als Umkehrabbildung hat, also ein Isomorphismus ist.
Sei \(f\colon V\to W\) ein Vektorraum-Homomorphismus. Wir nennen \(f\) einen (Vektorraum-)Isomorphismus, wenn ein Vektorraum-Homomorphismus \(g\colon W\to V\) existiert mit \(g\circ f = \operatorname{id}_V\), \(f\circ g= \operatorname{id}_W\).
Wir sagen, \(K\)-Vektorräume \(V\) und \(W\) seien isomorph, wenn ein Isomorphismus \(f\colon V\to W\) existiert.
Um anzuzeigen, dass eine lineare Abbildung \(V\to W\) ein Isomorphismus ist, macht man manchmal eine Tilde über den Pfeil: \(V\stackrel{\sim }{\smash {\longrightarrow }\rule{0pt}{0.4ex}}W\). Um anzugeben, dass Vektorräume \(V\) und \(W\) isomorph sind, ohne dem Isomorphismus zwischen \(V\) und \(W\) eine Bezeichnung zu geben, schreibt man manchmal \(V\cong W\). Es ist leicht zu sehen, dass die Verkettung von zwei Isomorphismen wieder ein Isomorphismus ist. Ist \(f\) ein Isomorphismus, so bezeichnen wir die Umkehrabbildung von \(f\) oft mit \(f^{-1}\).
Ist \(V\) ein Vektorraum, so nennt man einen Isomorphismus \(V\to V\) von \(V\) mit sich selbst auch einen Automorphismus von \(V\).
Ein Vektorraum-Homomorphismus \(f\colon V\to W\) ist genau dann ein Vektorraum-Isomorphismus, wenn er bijektiv ist.
Wenn \(f\) ein Vektorraum-Isomorphismus ist, dann existiert ein Umkehrhomomorphismus \(g\) wie in der Definition. Dies ist insbesondere eine Umkehrabbildung der Abbildung \(f\) (in dem Sinne, dass wir die Vektorraum-Struktur vergessen und nur die Mengen \(V\) und \(W\) betrachten). Daher ist \(f\) bijektiv (vgl. Satz 3.31).
Sei nun \(f\) ein bijektiver Vektorraum-Homomorphismus. Nach Satz 3.31 hat die Abbildung \(f\) (von Mengen) eine Umkehrabbildung \(g\). Wir müssen zeigen, dass \(g\) ein Vektorraum-Homomorphismus ist. Seien \(w_1, w_2\in W\), \(v_i := g(w_i)\). Dann gilt \(f(v_i)=w_i\), da \(f\) und \(g\) Umkehrabbildungen voneinander sind. Also folgt
und für alle \(a\in K\)
Somit ist \(g\) tatsächlich eine lineare Abbildung.
Der Begriff des Isomorphismus ist von großer Bedeutung für die lineare Algebra, weil Isomorphismen die allermeisten Eigenschaften von Vektorräumen, für die wir uns interessieren, erhalten. Zum Beispiel:
Sei \(f\colon V\to W\) ein Isomorphismus von \(K\)-Vektorräumen.
Ist \((v_i)_{i\in I}\) ein Erzeugendensystem von \(V\), so ist \((f(v_i))_{i\in I}\) ein Erzeugendensystem von \(W\).
Ist \((v_i)_{i\in I}\) eine linear unabhängige Familie von Vektoren in \(V\), so ist \((f(v_i))_{i\in I}\) eine linear unabhängige Familie von Vektoren in \(W\).
Ist \((v_i)_{i\in I}\) eine Basis von \(V\), so ist \((f(v_i))_{i\in I}\) eine Basis von \(W\).
Es gilt \(\dim (V) = \dim (W)\).
Teil (3) folgt aus (1) und (2), und Teil (4) folgt aus (3). Für den Beweis der Teile (1) und (2) benutzt man, dass \(f(\sum _i a_i v_i ) = \sum _i a_i f(v_i)\) (für endliche Summen, bzw. Summen in denen alle bis auf endlich viele Terme \(=0\) sind). In Teil (1) benutzt man dann noch die Surjektivität von \(f\), und für Teil (2) die Injektivität.
Als Beispiel führen wir Teil (2) aus: Sei \(\sum a_i\, f(v_i)=0\). Dann ist
Wegen der Injektivität und weil jedenfalls \(f(0)=0\) gilt, folgt \(\sum a_iv_i = 0\). Da die \(v_i\) nach Voraussetzung linear unabhängig sind, folgt, dass alle Koeffizienten \(a_i\) gleich Null sein müssen.
In den Teilen (1), (2) und (3) des Lemmas gilt jeweils auch die Umkehrung, wie wir sehen, wenn wir das Lemma auf den Umkehrhomomorphismus \(f^{-1}\) anwenden. Eine Abbildung der Form \(\mathbf f_A\colon K^n\to K^n\) für \(A\in M_n(K)\) ist genau dann bijektiv, wenn das lineare Gleichungssystem \(Ax=b\) für alle \(b\in K^n\) eindeutig lösbar ist, also wenn die Matrix \(A\) invertierbar ist. Wir sehen also: \(\mathbf f_A\) ist genau dann ein Isomorphismus, wenn \(A\) invertierbar ist. Die Umkehrabbildung ist dann durch \(\mathbf f_{A^{-1}}\) gegeben (siehe Satz 5.48).
Wir hatten in Beispiel 6.2 gesagt, dass wir »den« Vektorraum mit nur einem einzigen Element als »den« Nullvektorraum bezeichnen. Aber streng genommen gibt es ganz viele \(K\)-Vektorräume, die nur ein einziges Element haben – wir sind ja völlig frei, was wir als zugrundeliegende Menge wählen, solange nur die Verknüpfungen, die wir definieren, die Vektorraumaxiome erfüllen. Wir können nun präzisieren, warum diese Vieldeutigkeit im Fall des Nullvektorraums unproblematisch ist und es deshalb zulässig ist, von dem einen Nullvektorraum zu sprechen.
Seien \(V\) und \(V^\prime \) zwei \(K\)-Vektorräume mit jeweils nur einem Element. (Mit anderen Worten: Es sei \(\dim V = \dim V^\prime = 0\).) Dann gibt es einen eindeutig bestimmten Isomorphismus \(V\to V^\prime \).
Die Aussage selbst ist klar, denn die einzige Abbildung zwischen \(V\) und \(V^\prime \) bildet das eine Element von \(V\) auf das eine Element von \(V^\prime \) ab; dies ist offenbar ein Vektorraumisomorphismus. Wegen dieser Aussage können wir alle \(K\)-Vektorräume der Dimension \(0\) miteinander identifizieren, und zwar auf eindeutige Art und Weise.
Wir können an dieser Stelle auch die Bemerkung 6.51 noch einmal besser formulieren, weil wir besser ausdrücken können, was wir dort unter identifizieren verstehen: Untervektorräume \(U, W\subseteq V\) bilden genau dann eine (innere) direkte Summe, wenn der Vektorraum-Homomorphismus \(U\oplus W\to U+W\), \((u,w)\mapsto u+w\), von der (äußeren) direkten Summe in die Summe innerhalb von \(V\) ein Isomorphismus ist.
Seien \(V\) und \(W\) Vektorräume über dem Körper \(K\), und sei \(b_1, \dots , b_n\) eine Basis von \(V\), \(n = \dim V\in \mathbb N\).
Sind \(w_1,\dots , w_n\in W\) beliebige Elemente, dann gibt es genau eine lineare Abbildung \(f\colon V\to W\), so dass \(f(b_i) = w_i\) für alle \(i=1, \dots , n\).
Wir können also die Gleichheit von zwei linearen Abbildungen \(V\to W\) dadurch zeigen, dass wir überprüfen, dass sie auf allen Basisvektoren einer fixierten Basis von \(V\) dasselbe Bild haben. Andererseits können wir auf den Basisvektoren beliebige Elemente von \(W\) als Bild vorgeben und diese Auswahl mit einer linearen Abbildung \(V\to W\) »realisieren«.
Wir zeigen zuerst die Eindeutigkeit. Seien \(f,g\colon V\to W\) lineare Abbildungen mit \(f(b_i)=g(b_i)\) für alle \(i\). Ist \(v\in V\) irgendein Element, so existieren \(a_i\in K\) mit \(v=\sum _{i=1}^n a_ib_i\). Dann gilt
wegen der Linearität von \(f\) und \(g\).
Seien nun \(w_1, \dots , w_n\in W\) gegeben. Wir definieren die Abbildung \(f\colon V\to W\) durch
Da \(b_1,\dots , b_n\) eine Basis von \(V\) bilden, besitzt jedes Element eine eindeutige Darstellung der Form \(\sum _{i=1}^n a_i b_i\), wir erhalten in dieser Art und Weise also tatsächlich eine Abbildung \(V\to W\). Es ist klar, dass \(f(b_j)=w_j\) für alle \(j\) gilt, denn in diesem Fall sind die Koeffizienten \(a_i\) Null für \(i\ne j\), und \(a_j=1\).
Man prüft unmittelbar nach, dass die Abbildung linear ist, zum Beispiel für die Additivität:
Weil der Satz so wichtig ist, haben wir ihn in dieser »konkreten« Form angegeben, die für uns die relevanteste ist. Er gilt aber auch für Basen mit unendlich vielen Elementen, und der Beweis ist praktisch derselbe:
Seien \(V\) und \(W\) Vektorräume über dem Körper \(K\), und sei \((b_i)_{i\in I}\) eine Basis von \(V\).
Sind \(w_i\in W\), \(i\in I\), beliebige Elemente, dann gibt es genau eine lineare Abbildung \(f\colon V\to W\), so dass \(f(b_i) = w_i\) für alle \(i\in I\) gilt.
Den Beweis erhält man, indem man im vorherigen Satz alle Summen der Form \(\sum _{i=1}^n\) durch Summen \(\sum _{i\in I}\) ersetzt, in denen immer nur endlich viele Terme ungleich Null sind.
Sei \(V\) ein Vektorraum, und sei \((v_i)_{i\in I}\) eine (endliche oder unendliche) Familie von Vektoren in \(V\). Sei \(K^{(I)}\) der Vektorraum \(\bigoplus _{i\in I} K\). Wie wir in Beispiel 6.52 gesehen haben, bilden die Vektoren \(e_i\), \(i\in I\), die jeweils an der Stelle \(i\) eine \(1\), und in allen anderen Einträgen eine Null haben, eine Basis. Nach dem Satz erhalten wir eine lineare Abbildung
wobei wir die Summe auf der rechten Seite bilden können, weil alle bis auf endlich viele \(x_i\) gleich Null sind.
Wir können Eigenschaften der Familie \((v_i)_{i\in I}\) durch Eigenschaften der Abbildung \(f\) ausdrücken:
Die Familie \((v_i)_{i\in I}\) ist genau dann ein Erzeugendensystem von \(V\), wenn die Abbildung \(f\) surjektiv ist.
Die Familie \((v_i)_{i\in I}\) ist genau dann linear unabhängig, wenn die Abbildung \(f\) injektiv ist.
Die Familie \((v_i)_{i\in I}\) ist genau dann eine Basis von \(V\), wenn die Abbildung \(f\) bijektiv, und damit ein Isomorphismus, ist.
Ist andererseits \(V\) ein Vektorraum und \(f\colon K^{(I)}\to V\) ein Isomorphismus, so bilden die Elemente \(f(e_i)\), \(i\in I\), nach Lemma 7.11 eine Basis von \(V\).
Wir können den Satz noch etwas abstrakter umformulieren, und schließen dabei gleich den Fall von Basen mit unendlich vielen Elementen ein. Für einen Vektorraum \(W\) und eine Menge \(I\) bezeichnet \(W^I\) wie üblich das Produkt \(\prod _{i\in I}W\). Für den Fall \(I=\{ 1, \dots , n\} \) ist \(W^I = W^n\) der Vektorraum aller \(n\)-Tupel von Elementen aus \(W\).
Sei \(V\) ein \(K\)-Vektorraum mit Basis \((v_i)_{i\in I}\). Dann ist die Abbildung
ein Isomorphismus von \(K\)-Vektorräumen.
Die Bijektivität der Abbildung \(\Phi \) ist eine Umformulierung von Satz 7.15. Wegen Lemma 7.10 bleibt nur noch zu zeigen, dass \(\Phi \) linear ist. Für \(f,g\in \operatorname{Hom}_K(V, W)\) und \(a,b\in K\) gilt aber
wobei die erste Gleichheit aus der Definition von \(\Phi \), die zweite aus der Definition von Addition und Skalarmultiplikation in \(\operatorname{Hom}_K(V, W)\), und die dritte aus der Definition der Vektorraumstruktur auf \(W^I\) folgt.
Wir haben in Beispiel 7.16 gesehen, dass für einen Vektorraum \(V\) und eine Basis \(v_1,\dots , v_n\) von \(V\) die Abbildung \(K^n\to V\), \((a_1,\dots , a_n)^t\mapsto \sum _{i=1}^n a_i v_i\) ein Isomorphismus von Vektorräumen ist. Die Umkehrabbildung dieses Isomorphismus nennen wir die Koordinatenabbildung:
Sei \(V\) ein \(K\)-Vektorraum mit Basis \(\mathscr B= (v_1,\dots , v_n)\). Die eindeutig bestimmte lineare Abbildung \(c_\mathscr B\colon V\to K^n\) mit \(c_\mathscr B(v_i) = e_i\) heißt die Koordinatenabbildung zur Basis \(\mathscr B\).
Für \(v\in V\) heißt der Vektor \(c_\mathscr B(v)\in K^n\) der Koordinatenvektor von \(v\) bezüglich der Basis \(\mathscr B\).
Wie gehabt bezeichnen wir mit \(e_1, \dots , e_n\) die Standardbasisvektoren des Vektorraums \(K^n\). Die Existenz und Eindeutigkeit der Koordinatenabbildung folgt aus Satz 7.14.
Seien \(K\) ein Körper und \(V\), \(W\) endlich erzeugte \(K\)-Vektorräume. Dann sind äquivalent:
\(V\) und \(W\) sind isomorph.
\(\dim V = \dim W\).
Die Implikation (i) \(\Rightarrow \) (ii) haben wir im Lemma7.11 gesehen. Sei nun \(n =\dim V = \dim W\). (Da \(V\) und \(W\) nach Voraussetzung endlich erzeugt sind, handelt es sich hier um eine natürliche Zahl.) Es gibt also Basen \(\mathscr B= (v_1, \dots , v_n)\) von \(V\) und \(\mathscr C=(w_1, \dots , w_n)\) von \(W\). Die zugehörigen Koordinatenabbildungen \(c_\mathscr B\colon V\to K^n\) und \(c_\mathscr C\colon W\to K^n\) sind Isomorphismen, und die Verkettung \(c_\mathscr C^{-1}\circ c_\mathscr B\) ist ein Isomorphismus \(V\to W\).
Alternativ kann man direkt Satz 7.14 anwenden, um Abbildungen \(f\colon V\to W\) mit \(f((v_i)=w_i\) und \(g\colon W\to V\) mit \(g(w_i)=v_i\) zu definieren. Es gilt dann \(g\circ f = \operatorname{id}_V\), \(f\circ g=\operatorname{id}_W\), denn es genügt, das jeweils auf einer Basis zu überprüfen, also sind \(f\) und \(g\) Isomorphismen.
Insbesondere ist die Frage, ob zwei Vektorräume isomorph sind, relativ leicht zu entscheiden (und daher oft nicht so interessant). Aber: Natürlich ist nicht jede lineare Abbildung zwischen Vektorräumen derselben Dimension ein Isomorphismus, und einen konkreten Isomorphismus zwischen zwei Vektorräumen zu »haben« ist eine wesentlich stärkere/nützlichere Information, als nur zu wissen, dass zwei Vektorräume isomorph sind.