18.5 Tensorprodukte
18.5.1 Definition und Konstruktion des Tensorprodukts
Sei \(K\) ein Körper. In diesem Abschnitt besprechen wir eine weitere Möglichkeit, aus schon »vorhandenen« Vektorräumen weitere zu konstruieren, und zwar das sogenannte Tensorprodukt. Diesmal beginnen wir nicht mit einer konkreten Konstruktion, sondern benutzen eine universelle Eigenschaft direkt in der Definition. Der Grund ist, dass man mit der konkreten Konstruktion des Tensorprodukts kaum arbeiten kann (jedenfalls mit der ersten Konstruktion, die wir unten erklären und die sich gut verallgemeinern lässt auf Tensorprodukte in anderen Kontexten, zum Beispiel von abelschen Gruppen; im Vektorraumfall kann man stattdessen auch eine Konstruktion angeben, die besser handhabbar ist, siehe die alternative Konstruktion im Beweis von Satz 18.38).
In der Definition benutzen wir den Begriff der bilinearen Abbildung. Eine bilineare Abbildung ist einfach eine multilineare Abbildung (vergleiche Definition LA1.9.1, wo wir aber den Spezialfall des Definitionsbereichs \(V^n\) betrachtet hatten), in der der Definitionsbereich aus zwei Faktoren besteht. In jedem dieser Faktoren soll die Abbildung linear sein. Konkret heißt also eine Abbildung \(\beta \colon V\times W\to U\) für \(K\)-Vektorräume \(V\), \(W\), \(U\) bilinear, wenn für alle \(v_0\in V\) und \(w_0\in W\) die Abbildungen
linear sind.
Seien \(V\) und \(W\) Vektorräume über \(K\). Ein Tensorprodukt von \(V\) und \(W\) über \(K\) ist ein \(K\)-Vektorraum \(T\) zusammen mit einer bilinearen Abbildung \(\beta \colon V\times W\to T\), so dass die folgende universelle Eigenschaft erfüllt ist:
Es ist leicht zu sehen, dass die Verkettung einer bilinearen Abbildung \(V\times W\to T\) mit einer linearen Abbildung \(T\to U\) wieder eine bilineare Abbildung ist. Wenn wir mit \(\operatorname{Bil}_K(V\times W, U)\) die Menge der bilinearen Abbildungen von \(V\times W\) nach \(U\) bezeichnen, können wir deshalb die universelle Eigenschaft auch wie folgt äquivalent ausdrücken. Die Abbildung
ist für jeden \(K\)-Vektorraum \(U\) bijektiv. Dabei entspricht die Surjektivität gerade der Existenzaussage, und die Injektivität der Eindeutigkeitsaussage der universellen Eigenschaft. Mit dem Tensorprodukt können wir also »bilineare Abbildungen zu linearen Abbildungen machen« (wobei der Definitionsbereich \(V\times W\) dann durch das Tensorprodukt ersetzt wird). Das erlaubt es im Prinzip, die umfangreiche Theorie der linearen Abbildungen zu benutzen, um bilineare Abbildungen zu untersuchen.
Dass ein Tensorprodukt, wenn es überhaupt existiert, eindeutig bestimmt ist bis auf eindeutigen Isomorphismus, folgt in der üblichen Art und Weise aus der universellen Eigenschaft. Der interessante Teil des folgenden Satzes ist also die Existenzaussage. (Die konkrete Konstruktion wird allerdings so gut wie nie benötigt, sobald man die Existenz erst einmal gezeigt hat.)
Die Eindeutigkeit zeigt man, wie schon erwähnt, nach dem üblichen Prinzip, wie wir es in Satz 18.4 gesehen haben. Weil zwischen zwei verschiedenen Tensorprodukten ein eindeutiger Isomorphismus existiert, haben wir (genau) eine Möglichkeit, alle Tensorprodukte in kompatibler Weise miteinander zu identifizieren. Daher ist es gerechtfertigt, von dem Tensorprodukt zu sprechen und es mit dem Symbol \(V\otimes _KW\) zu bezeichnen, ohne sich auf eine konkrete Konstruktion festzulegen. Wichtig ist, dass die bilineare Abbildung \(V\times W\to V\otimes _KW\) immer »mit dazugehört«. Diese Abbildung ist Teil des Datums eines Tensorprodukt und ist essentiell, um die Eindeutigkeit sicherzustellen.
Es bleibt, die Existenz eines Tensorprodukts zu beweisen. Wir geben zwei Beweise dafür, zunächst einen, der sich gut auf andere Situationen verallgemeinert, zum Beispiel kann man auch das Tensorprodukt von kommutativen Gruppen konstruieren, oder allgemeiner das Tensorprodukt von »Moduln« über einem kommutativen Ring (wie Sie sie in den Ergänzungen kennenlernen können, siehe Abschnitt 18.7), und dann einen, der speziell auf die Vektorraumsituation zugeschnitten und daher etwas einfacher ist.
Erster Beweis. Seien \(V\) und \(W\) gegeben. Sei \(S\) der Vektorraum \(K^{(V\times W)}\), also
ein »riesengroßer« Vektorraum, dessen Elemente Tupel \((a_i)_i\) mit \(a_i\in K\) sind, wobei der Index \(i\) die Menge \(V\times W\) durchläuft und in jedem Element von \(S\) nur endlich viele Einträge von Null verschieden sind.
Wir erhalten eine Abbildung
wobei \(e_{(v,w)}\) den »Standardbasisvektor« bezeichne, der an der Stelle mit Index \((v,w)\in V\times W\) eine Eins hat, und sonst überall Nullen. Diese Abbildung ist allerdings offensichtlich (! – machen Sie sich das klar …) nicht bilinear. Wir werden das gesuchte Tensorprodukt als einen Quotientenvektorraum von \(S\) erhalten, wobei wir einen möglichst kleinen Untervektorraum aus \(S\) herausteilen, der gerade groß genug ist, dass die Abbildung von \(V\times W\) in den Quotientenvektorraum bilinear ist.
Und zwar sei \(T\) der Quotientenvektorraum von \(S\) nach dem Untervektorraum \(S^\prime \), der von allen Elementen der folgenden Form erzeugt wird:
für \(a, a^\prime \in K\), \(v,v^\prime \in V\), \(w, w^\prime \in W\).
Wir erhalten durch Verkettung der oben genannten Abbildung \(V\times W\to S\) mit der kanonischen Projektion \(S\to T\) eine Abbildung \(\beta \colon V\times W \to T\), und diese ist bilinear. Dann sind \(v, v^\prime \in V\), \(a, a^\prime \in K\) und \(w\in W\), so gilt
also werden die Elemente \(e_{(av+a^\prime v^\prime , w)}\) und \((ae_{(v,w)} +a^\prime e_{(v^\prime , w)})\) von \(S\) unter der kanonischen Projektion \(S\to T\) auf dasselbe Element von \(T\) abgebildet, und das bedeutet gerade \(\beta (av+a^\prime v^\prime , w) = a\beta (v,w)+a^\prime \beta (v^\prime , w)\), also dass \(\beta \) linear in der ersten Variablen ist. Die Linearität in der zweiten Variablen zeigt man ganz analog.
Behauptung. \(T\) zusammen mit der Abbildung \(\beta \) ist ein Tensorprodukt von \(V\) und \(W\).
Begründung. Sei \(b\colon V\times W\to U\) eine bilineare Abbildung. Jedenfalls kann es höchstens eine lineare Abbildung \(\psi \colon T\to U\) geben, so dass \(b = \psi \circ \beta \) gilt, denn die \(e_{(v,w)}\) bilden ein Erzeugendensystem von \(S\) (sogar eine Basis), und daher bilden ihre Bilder ein Erzeugendensystem von \(T\). Das Bild \(\overline{e}_{(v,w)}\) von \(e_{(v,w)}\) in \(T\) muss aber unter \(\psi \) auf \(b(v,w)\) abgebildet werden, so dass \(\psi \) eindeutig festgelegt ist.
Es bleibt zu zeigen, dass eine Abbildung \(\psi \) mit \(\psi (\overline{e}_{(v,w)}) = b(v,w)\) für alle \(v\in V\); \(w\in W\) existiert. (Hier ist noch etwas zu tun, weil die \(\overline{e}_{(v,w)}\) keine Basis von \(T\) bilden, wir also ihre Bilder nicht beliebig festlegen können.)
Wir können jedenfalls eine (eindeutig bestimmte) lineare Abbildung \(S\to U\) definieren durch \(e_{(v,w)}\mapsto b(v,w)\), denn die \(e_{(v,w)}\) bilden eine Basis von \(S\). Wenn wir zeigen können, dass \(U\) im Kern dieser Abbildung liegt, dann folgt aus dem Homomorphiesatz, dass sie über eine Abbildung \(\psi \colon T\to U\) faktorisiert, die genau die gewünschte Eigenschaft hat.
Es genügt dazu zu zeigen, dass alle Elemente des Erzeugendensystems, das wir benutzt haben, um \(U\) zu definieren, im Kern der Abbildung liegen. In der Tat wird
wegen der Linearität der Abbildung abgebildet auf \(b(av+a^\prime v^\prime , w) - ab(v,w) - a^\prime b(v^\prime , w)\), und dies ist \(=0\), weil \(b\) nach Voraussetzung bilinear ist. Für den anderen Typ von Elementen unseres Erzeugendensystems können wir analog vorgehen.
Zweiter Beweis. Wir können alternativ benutzen, dass jeder Vektorraum eine Basis besitzt. Damit kann man vermeiden, mit einem »sehr großen« Vektorraum wie \(S\) im ersten Beweis arbeiten zu müssen.
Seien \((b_i)_{i\in I}\) eine Basis von \(V\) und \((c_j)_{j\in J}\) eine Basis von \(W\). Sei \(T:= K^{(I\times J)}\), wir haben also die Standardbasis \((e_{ij})_{(i,j)\in I\times J}\) von \(T\).
Sei \(\beta \colon V\times W \to T\) die eindeutig bestimmte bilineare Abbildung mit
Explizit bedeutet das für beliebige Elemente von \(V\) und \(W\) (die wir als Linearkombination der jeweiligen Basen schreiben), dass
gilt (wobei in den Summen jeweils nur endlich viele Summanden \(\ne 0\) sind). Es ist nicht schwer nachzuprüfen, dass diese Abbildung tatsächlich bilinear ist.
Behauptung. \(T\) mit dieser Abbildung ist ein Tensorprodukt von \(V\) und \(W\).
Begründung. Sei \(b\colon V\times W\to U\) eine bilineare Abbildung. Wir definieren \(\psi \colon T\to U\) durch \(e_{ij}\mapsto b(b_i, c_j)\). Man rechnet dann nach, dass \(\psi \circ \beta = b\) gilt. Es ist auch klar, dass dies die einzige Möglichkeit ist, eine Abbildung \(T\to U\) zu definieren, deren Verkettung mit \(\beta \) die vorgegebene Abbildung \(b\) liefert.
Damit haben wie die Existenz des Tensorprodukts bewiesen und können nun einige seiner Eigenschaften studieren.
Seien \(K\) ein Körper, \(V\) und \(W\) Vektorräume über \(K\) und sei \(\beta \colon V\times W\to V\otimes _KW\) die bilineare Abbildung in das Tensorprodukt. Dann schreibt man für \(v\in V\) und \(w\in W\) auch \(v\otimes w\) statt \(\beta (v,w)\). Elemente von \(V\otimes _KW\) dieser Form nennt man Elementartensoren.
Die Eigenschaft, dass die Abbildung \(V\times W\to V\otimes _KW\) bilinear ist, übersetzt sich in die folgenden »Rechenregeln« für Elementartensoren:
Im allgemeinen gilt aber \(v\otimes w\ne w\otimes v\), und eine Summe \((v\otimes w) + (v^\prime \otimes w^\prime )\) kann man in der Regel nicht als einen einzigen Elementartensor schreiben!
Die universelle Eigenschaft besagt dann gerade, dass eine lineare Abbildung \(\psi \colon V\otimes _KW\to U\) durch die Bilder der Elementartensoren eindeutig festgelegt ist, und dass die Abbildung \(V\times W\to U\), \((v,w)\mapsto \psi (v\otimes w)\) bilinear ist. Oder noch einmal umformuliert: Zu jedem »Ausdruck« in \(v\) und \(w\), der sich bilinear verhält, gibt es eine eindeutig bestimmte lineare Abbildung, die die Elementartensoren entsprechend abbildet. Zum Beispiel ist für \(V=K\), \(a\in K\), \(w\in W\) der Ausdruck \(aw\) bilinear in \(a\) und in \(w\), wir erhalten also eine eindeutig bestimmte Abbildung \(K\otimes _KW\to W\) mit \(a\otimes w\mapsto aw\). Da die Abbildung durch die Bilder der Elementartensoren bereits eindeutig festgelegt ist, gibt man oft nur an, wohin diese abgebildet werden (wenngleich in aller Regel nicht jedes Element von \(V\otimes _KW\) ein Elementartensor ist!). Diese Eindeutigkeit wird auch durch das folgende Lemma reflektiert.
Die Elementartensoren bilden ein Erzeugendensystem von \(V\otimes _K W\).
Man kann das Lemma mit einem Blick auf die Konstruktion des Tensorprodukts in Satz 18.38 beweisen; aus dem zweiten Beweis ergibt sich die Aussage ganz direkt, weil wir dort gesehen haben, dass für Basen \((b_i)_i\) von \(V\) und \((c_j)_j\) von \(W\) die Elemente \(b_i\otimes c_j\) sogar eine Basis von \(V\otimes _K W\) liefern.
Da aber versprochen wurde, dass man die Konstruktion direkt wieder vergessen kann, hier noch ein anderer Beweis, der mit der universellen Eigenschaft arbeitet. Sei \(T\subseteq V\otimes _K W\) der von allen Elementartensoren erzeugte Untervektorraum. Wir wollen zeigen, dass die Inklusionsabbildung \(T\to V\otimes _KW\) ein Isomorphismus ist – das bedeutet gerade, dass \(T=V\otimes _KW\) gilt.
Verketten wir \(\psi \) mit der Inklusion \(T\subseteq V\otimes _KW\), so erhalten wir eine lineare Abbildung \(\varphi \colon T\to U\) mit \(b = \varphi \circ \beta \). Es ist klar, dass \(\varphi \) eindeutig bestimmt ist, denn das Bild ist ja auf jedem Elementartensor \(v\otimes w\) durch \(\varphi (v\otimes w)=b(v,w)\) festgelegt. Weil das Tensorprodukt durch die universelle Eigenschaft eindeutig bestimmt ist bis auf eindeutigen Isomorphismus, folgt, dass die Inklusion \(T\to V\otimes _KW\) tatsächlich ein Isomorphismus ist.
Man kann auch folgendermaßen argumentieren (wenn man bereit ist, die Existenz von Komplementärräumen zu verwenden; wir haben das nur im endlichdimensionalen Fall bewiesen). Sei \(T\subseteq V\otimes _KW\) der von allen Elementartensoren erzeugte Untervektorraum und sei \(T'\) ein Komplement von \(T\) in \(V\otimes _KW\). Falls \(T'\ne 0\) wäre, dann gäbe es eine lineare Abbildung \(f\colon T'\to U\), \(f\ne 0\), in irgendeinen \(K\)-Vektorraum \(U\) (zum Beispiel können wir \(U=T'\) und als Abbildung die Identität wählen). Dann erhalten wir zwei verschiedene Abbildungen \(V\otimes _KW= T\oplus T'\to T'\),
die beide dieselbe bilineare Abbildung \(V\times W\to U\) als Verkettung mit \(\beta \colon V\times W\to V\otimes _KW\) liefern. Das ist ein Widerspruch zur Eindeutigkeitsaussage in der universellen Eigenschaft.
Das Tensorprodukt verhält sich in dem folgenden Sinne gut mit linearen Abbildungen:
Sei \(K\) ein Körper. Seien \(f\colon V\to V^\prime \) und \(g\colon W\to W^\prime \) Homomorphismen von \(K\)-Vektorräumen. Dann gibt es eine eindeutig bestimmte lineare Abbildung
Wie praktisch immer bei Abbildungen aus einem Tensorprodukt heraus, verwenden wir zum Beweis die universelle Eigenschaft. (Das bedeutet insbesondere, dass wir nicht direkt die Linearität der Zuordnungsvorschrift \(v\otimes w\mapsto f(v)\otimes g(w)\) nachprüfen – erstens ist das problematisch, weil ja gar nicht alle Elemente die Form von Elementartensoren haben, zweitens ist das auch nicht der Kernpunkt, weil wir als erstes die Wohldefiniertheit der entsprechenden Vorschrift zeigen müssen).
Die universelle Eigenschaft hier anzuwenden, ist ganz einfach. Wir müssen nur beobachten, dass die Abbildung
bilinear ist, und das folgt direkt aus der Linearität von \(f\) und \(g\) und den Eigenschaften des Tensorprodukts \(V^\prime \otimes _KW^\prime \).
Die Konstruktion im Satz ist in der offensichtlichen Weise verträglich mit der Verkettung von Abbildungen,
Außerdem gilt \(\operatorname{id}_{V\otimes W} = \operatorname{id}_V\otimes \operatorname{id}_W\).
Insbesondere folgt mit einem rein formalen Argument, dass \(f\otimes g\) ein Isomorphismus ist, wenn sowohl \(f\) als auch \(g\) Isomorphismen sind.
Sei \(K\) ein Körper, und seien \(U\), \(V\), \(W\) Vektorräume über \(K\). Dann hat man »kanonische« Isomorphismen
\(K\otimes _KW \cong W\), \(a\otimes w\mapsto aw\),
\(V\otimes _KK \cong V\), \(v\otimes a\mapsto av\),
\(V\otimes _KW \cong W\otimes _KV\), \(v\otimes w\mapsto w\otimes v\),
\((U\otimes _KV)\otimes _KW \cong U\otimes _K(V\otimes _KW)\), \((u\otimes v)\otimes w\mapsto u\otimes (v\otimes w)\).
Eine entsprechende Aussage gilt für endliche Familien \(V_1, \dots , V_r\) von \(K\)-Vektorräumen.
In allen Fällen konstruiert man die angegebene Abbildung mit der universellen Eigenschaft des Tensorprodukts, und kann dann eine Umkehrabbildung konstruieren. Zum Beispiel im ersten Fall: Die Abbildung \(K\times W\to W\), \((a,w)\mapsto aw\), ist bilinear, es gibt also eine (eindeutig bestimmte) Abbildung wie in (1). Die Abbildung \(W\to K\otimes _KW\), \(w\mapsto 1\otimes w\) ist dazu invers.
Mit der »Assoziativitätseigenschaft« in Teil (4) des Satzes können wir das Tensorprodukt \(V_1\otimes _K\cdots \otimes _K V_r = \bigotimes _{i=1}^r V_i\) von endlich vielen \(K\)-Vektorräumen \(V_1, \dots , V_r\) definieren, ohne Klammern setzen zu müssen. Wir erhalten eine Abbildung \(V_1\times \cdots \times V_r\to V_1\otimes _K\cdots \otimes _K V_r\), die ebenfalls unabhängig von der Klammerung ist. Das Bild eines \(r\)-Tupels \((v_1,\dots , v_r)\) unter dieser Abbildung bezeichnen wir mit \(v_1\otimes \cdots \otimes v_r\); diese Elemente des Tensorprodukts bezeichnen wir wieder als Elementartensoren. Es ist nicht schwer zu sehen, dass man dieses Tensorprodukt auch durch eine universelle Abbildung charakterisieren kann, wobei nun bilineare Abbildungen durch multilineare Abbildungen mit Definitionsbereich \(V_1\times \cdots \times V_r\to U\) ersetzt werden, also durch Abbildungen, die in jeder der \(r\) Komponenten linear sind:
Seien \(K\) ein Körper, \(r\ge 1\) und \(V_1,\dots , V_r\) Vektorräume über \(K\). Dann ist die Abbildung \(\beta \colon V_1\times \cdots \times V_r\to V_1\otimes _K\cdots \otimes _K V_r\), \((v_1,\dots , v_r)\mapsto v_1\otimes \cdots \otimes v_r\) multilinear und erfüllt die folgende universelle Eigenschaft.
Ist \(b\colon V_1\times \cdots \times V_r\to U\) eine multilineare Abbildung, so existiert eine eindeutig bestimmte lineare Abbildung \(\psi \colon V_1\otimes _K\cdots \otimes _KV_r\to U\) mit \(b = \psi \circ \beta \).
Eine weitere nützliche Eigenschaft ist der folgende Satz.
Seien \(K\) ein Körper und \(U, V, W\) Vektorräume über \(K\). Die Abbildung
ist dann ein Isomorphismus von \(K\)-Vektorräumen.
Es folgt aus den Eigenschaften des Tensorprodukts, dass für alle \(\varphi \) und \(v\) wie im Satz die Abbildung \(w\mapsto \varphi (v\otimes w)\) linear ist, also ein Element von \(\operatorname{Hom}_K(W, U)\) ist.
Wir geben nun eine Umkehrabbildung an:
Hier ist wie üblich nachzuprüfen, dass es eine (eindeutig bestimmte) Abbildung \(V\otimes _KW\to U\) mit \(v\otimes w\mapsto \psi (v)(w)\) für alle \(v\), \(w\) überhaupt gibt. Das folgt aus der universellen Eigenschaft, weil sich der Ausdruck \(\psi (v)(w)\) bilinear in \(v\) und \(w\) verhält.
Es ist nicht schwer zu überprüfen, dass die beiden Abbildungen zueinander invers sind.
Seien \(K\) ein Körper, \(V\) und \(W_i\), \(i\in I\), Vektorräume über \(K\). Dann hat man einen kanonischen Isomorphismus
Wir zeigen, dass der Vektorraum \(V\otimes _K\bigoplus _{i\in I} W_i\) zusammen mit den Homomorphismen
die universelle Eigenschaft der direkten Summe erfüllt. (Hier bezeichne \(\iota _i\) die Inklusion von \(W_i\) in die direkte Summe \(\bigoplus _{i\in I} W_i\).) Weil die Verkettung der Abbildungen \(V\otimes _K W_i \to V\otimes _K\bigoplus _{i\in I} W_i\) mit der im Satz angegebenen Abbildung \(V\otimes _K\bigoplus _{i\in I} W_i \cong \bigoplus _{i\in I} V\otimes _KW_i\) die kanonische Inklusion von \(V\otimes _KW_i\) in die direkte Summe ist, folgt dann die Behauptung aus dem Satz, weil die universelle Eigenschaft die direkte Summe eindeutig charakterisiert.
Sei also ein \(K\)-Vektorraum \(U\) zusammen mit Abbildungen \(f_i\colon V\otimes W_i\to U\) gegeben.
Wir definieren \(\varphi \colon V\otimes _K\bigoplus _{i\in I} W_i\to U\) durch
Weil der Ausdruck \(\sum _{i\in I} f_i(v\otimes w_i)\) sowohl in \(v\) als auch in \((w_i)_{i\in I}\) bilinear ist, gibt es eine solche lineare Abbildung \(\varphi \). Es gilt dann \(f_i = \varphi \circ (\operatorname{id}_V\otimes \iota _i)\), und \(\varphi \) ist die einzige Abbildung mit dieser Eigenschaft.
Wir können diesen Satz benutzen, um (unabhängig von der Konstruktion) zu klären, wie man aus Basen von \(V\) bzw. W eine Basis des Tensorprodukts \(V\otimes _KW\) erhält.
Seien \(K\) ein Körper, \(V\) und \(W\) Vektorräume über \(K\), und seien \((b_i)_{i\in I}\) eine Basis von \(V\) und \((c_j)_{j\in J}\) eine Basis von \(W\).
Dann bilden die Elemente \(b_i\otimes c_j\) für \((i,j)\in I\times J\) eine Basis von \(V\otimes _KW\).
Mithilfe der Basen von \(V\) und \(W\) können wir (Koordinaten-)Isomorphismen \(V\stackrel{\sim }{\smash {\longrightarrow }\rule{0pt}{0.4ex}}K^{(I)} = \bigoplus _I K\) und \(W\stackrel{\sim }{\smash {\longrightarrow }\rule{0pt}{0.4ex}}K^{(J)}\) definieren. Damit erhalten wir
wobei für die erste Isomorphie Bemerkung 18.44 und in der Mitte die Kompatibilität zwischen Tensorprodukt und direkter Summe benutzt wurde. Man rechnet leicht nach, dass der Standardbasisvektor \(e_{(i,j)}\in K^{(I\times J)}\) unter diesem Isomorphismus dem Vektor \(b_i\otimes c_j\) entspricht.
Aus dem Satz folgt im endlichdimensionalen Fall unmittelbar die folgende Dimensionsformel.
Sei \(K\) ein Körper und seien \(V\) und \(W\) endlichdimensionale Vektorräume über \(K\). Dann gilt
Man kann den Satz auch benutzen, um die bilineare Abbildung \(K^m\times K^n\to K^m\otimes _K K^n\) ganz explizit zu machen. Wenn wir die von den Standardbasen von \(K^m\) und \(K^n\) induzierte Basis von \(K^m\otimes _K K^n\) benutzen, um diesen Raum mit \(K^{mn}\) zu identifizieren, dann ist die bilineare Abbildung gegeben durch
In diesem Sinne kann man den Elementartensor \((x_1, \dots , x_m)\otimes (y_1, \dots , y_n)\) mit dem Vektor \((x_1y_1, x_1y_2, \dots , x_1y_n, x_2y_1, \dots , x_my_n)\) identifizieren, dessen Einträge allen Produkten \(x_i y_j\) sind.
Wir diskutieren nun noch eine interessante Verbindung zwischen Tensorprodukt und Dualraum.
Seien \(K\) ein Körper, \(V\) ein \(K\)-Vektorraum und \(V^\vee = \operatorname{Hom}_K(V, K)\) sein Dualraum. Sei \(W\) ein endlichdimensionaler \(K\)-Vektorraum. Dann ist die Abbildung
bilinear und die durch die universelle Eigenschaft des Tensorprodukts induzierte lineare Abbildung
ist ein Isomorphismus \(\Phi \colon V^\vee \otimes _KW\cong \operatorname{Hom}_K(V, W)\).
Wir wählen einen Isomorphismus \(W\stackrel{\sim }{\smash {\longrightarrow }\rule{0pt}{0.4ex}}K^n\) (das entspricht der Wahl einer Basis \(w_1,\dots , w_n\) von \(W\)). Damit erhalten wir Isomorphismen
wobei wir für den zweiten Isomorphismus die Verträglichkeit von Tensorprodukt und direkten Summen (Satz 18.48) benutzen, und für den vorletzten die endliche direkte Summe als direktes Produkt verstehen und die universelle Eigenschaft des Produkts verwenden (Bemerkung 18.7).
Es bleibt zu überprüfen, dass die Verkettung dieser Isomorphismus gerade die im Satz angegebene Abbildung ist. Da \(V^\vee \otimes _KW\) von den Elementartensoren \(\lambda \otimes w_i\) erzeugt wird (wo die \(w_i\) die oben gewählten Basisvektoren sind), genügt es, das für diese Elemente zu überprüfen, und das ist nicht schwierig.
Es gibt auch andere Möglichkeiten, den Beweis zu führen. Aber Achtung: Wenn man direkt die Injektivität der Abbildung (oder einer ähnlichen Abbildung mit einem Tensorprodukt als Definitionsbereich) beweisen möchte, genügt es nicht zu zeigen, dass der Kern keine Elementartensoren \(\ne 0\) enthält, denn es könnte andere Elemente \(\ne 0\) des Tensorprodukts geben, die im Kern liegen. Speziell im Fall \(V=W\) erhalten wir das folgende Korollar.
Sei \(K\) ein Körper und \(V\) ein endlichdimensionaler \(K\)-Vektorraum. Dann haben wir einen Isomorphismus
Damit können wir das Tensorprodukt benutzen, um die Spur eines Endomorphismus zu definieren, ohne eine Matrixdarstellung zu wählen.
Seien \(K\) ein Körper und \(V\) ein endlichdimensionaler \(K\)-Vektorraum.
Dann stimmt die Verkettung \(\operatorname{ev}\circ \Psi \) mit der (linearen) Abbildung \(\operatorname{Spur}\colon \operatorname{End}_K(V)\to K\) überein.
Äquivalent zu der Gleichheit \(\operatorname{Spur}= \operatorname{ev}\circ \Psi \) ist es, \(\operatorname{Spur}\circ \Phi = \operatorname{ev}\) zu zeigen. Zum Beweis fixieren wir eine Basis \(\mathscr B= (b_1, \dots , b_n)\) von \(V\).
Seien \(\lambda \in V^\vee \), \(v = \sum _i a_ib_i\in V\). Dann rechnen wir wie folgt:
Da die Elementartensoren \(\lambda \otimes v\) den Vektorraum \(V^\vee \otimes V\) erzeugen, folgt, dass die beiden Abbildungen tatsächlich übereinstimmen.
Wir kommen noch einmal auf die Fragestellung zurück, die wir in Frage LA1.2.5 und Ergänzung LA1.7.65 besprochen haben. Dort haben wir bewiesen, dass sich ein Rechteck mit Seitenlängen \(a\in \mathbb Q\) und \(b\in \mathbb R\setminus \mathbb Q\) nicht durch endlich viele Quadrate lückenlos überdecken lässt.
Wir betrachten etwas allgemeiner als dort ein Rechteck in \(\mathbb R^2\) mit Seitenlängen \(a,b\in \mathbb R\), das durch endlich viele kleinere Rechtecke (mit zum Ursprungsrechteck parallelen Seiten) lückenlos und ohne Überlappungen überdeckt wird. (Man spricht auch von einer Pflasterung des großen Rechtecks durch die kleinen Rechtecke.) Seien \(a_i, b_i\in \mathbb R\) für \(i=1, \dots , k\) die Seitenlängen der kleinen Rechtecken. Dass der Flächeninhalt des großen Rechtecks in dieser Situation gleich der Summe der Flächeninhalte der kleinen Rechtecke ist, äußert sich in der Gleichung
Diese Gleichung allein ist aber nicht ausreichend, um ein Ergebnis wie das obige zu beweisen.
Mit dem Tensorprodukt können wir eine stärkere Bedingung formulieren. Wir betrachten \(\mathbb R\) als Vektorraum über dem Körper \(\mathbb Q\). In der obigen Situation gilt dann
Indem man alle Rechtecke dadurch noch feiner zerlegt, dass man alle Seiten der kleinen Rechtecke komplett durchzeichnet, ist es genug, diese Gleichheit in der Situation zu zeigen, dass das große Rechteck in \(rs\) kleine Rechtecke mit Seitenlängen \(a_i\), \(b_j\), \(i=1, \dots , r\), \(j= 1,\dots , s\), zerlegt ist, wobei \(a = \sum _{i=1}^r a_i\), \(b=\sum _{j=1}^s b_j\) gilt. In diesem Fall haben wir
wegen der Bilinearität des Tensorprodukts.
Diese Interpretation können wir benutzen, um den Beweis aus Ergänzung LA1.7.65 neu zu formulieren. Seien \(a\in \mathbb Q\), \(b\in \mathbb R\setminus \mathbb Q\). Dann sind \(a,b\) linear unabhängig über \(\mathbb Q\). Sei \(f\colon \mathbb R\to \mathbb Q\) ein \(\mathbb Q\)-Vektorraum-Homomorphismus mit \(f(a) =1\), \(f(b) = -1\). (Wenn man nicht benutzen möchte, dass der (nicht endlich erzeugte) \(\mathbb Q\)-Vektorraum \(\mathbb R\) eine Basis besitzt, dann kann man zu einem geeigneten endlichdimensionalen Untervektorraum von \(\mathbb R\) übergehen wie in Ergänzung LA1.7.65.)
Sei \(\Phi \colon \mathbb R\otimes _\mathbb Q\mathbb R\to \mathbb Q\) die durch \(x\otimes y\mapsto f(x)f(y)\) gegebene Abbildung.
Hätten wir nun eine Gleichung der Form \(a\otimes b = \sum _{i=1}^k a_i\otimes a_i\) in \(\mathbb R\otimes _\mathbb Q\mathbb R\) mit \(a_i\in \mathbb R\) (wie wir sie aus einer Pflasterung durch Quadrate bekommen würden), so folgt
ein Widerspruch.
Wir benutzen die Formulierung mithilfe des Tensorprodukts um noch ein ähnliches Ergebnis über solche Pflasterungen von Rechtecken zu zeigen.
Sei \(R\) ein Rechteck in \(\mathbb R^2\) mit Seitenlängen \(a,b\in \mathbb R\), das eine lückenlose Überdeckung ohne Überschneidungen durch kleinere Rechtecke mit Seitenlängen \(a_i, b_i\in \mathbb R\), \(i=1,\dots , k\), besitzt.
Wenn für jedes \(i\) eine der Zahlen \(a_i, b_i\) in \(\mathbb Q\) liegt, dann liegt \(a\) oder \(b\) in \(\mathbb Q\).
Der Punkt hier ist, dass für einige \(i\) die Zahl \(a_i\), und für andere die Zahl \(b_i\) rational sein kann.
Wie oben besprochen, haben wir
Sei nun \(f\colon \mathbb R\to \mathbb R\) ein \(\mathbb Q\)-Vektorraumhomomorphismus mit \(\operatorname{Ker}(f)= \mathbb Q\). (Um zu zeigen, dass ein solches \(f\) existiert, ergänze man \(1\in \mathbb R\) zu einer \(\mathbb Q\)-Basis von \(\mathbb R\). Dann kann man \(f\) definieren durch \(f(1) = 0\) und \(f(b)=b\) für alle anderen Vektoren \(b\) aus dieser Basis. Wie oben auch kann man wieder \(\mathbb R\) durch einen geeigneten endlichdimensionalen Untervektorraum ersetzen.)
Wir betrachten die Abbildung \(\Phi \colon \mathbb R\otimes _\mathbb Q\mathbb R\to \mathbb R\), \(x\otimes y\mapsto f(x)f(y)\) und erhalten
also \(f(a)=0\) oder \(f(b)=0\). Da \(\operatorname{Ker}(f)=\mathbb Q\) ist, ist das genau die Aussage, die zu zeigen war.
Zum Abschluss sei erwähnt, dass auch das folgende stärkere Ergebnis richtig ist:
Sei \(R\) ein Rechteck in \(\mathbb R^2\) mit Seitenlängen \(a,b\in \mathbb R\), das eine lückenlose Überdeckung ohne Überschneidungen durch kleinere Rechtecke mit Seitenlängen \(a_i, b_i\in \mathbb R\), \(i=1,\dots , k\), besitzt.
Wenn für jedes \(i\) eine der Zahlen \(a_i, b_i\) in \(\mathbb Z\) liegt, dann liegt \(a\) oder \(b\) in \(\mathbb Z\).
Es ist interessant, dass man für diesen Satz sehr verschiedenartige Beweise geben kann. Vierzehn verschiedene werden in der Arbeit
S. Wagon, Fourteen proofs of a result about tiling a rectangle, The American Mathematical Monthly 94, 1987, 601–617, https://www.maa.org/sites/default/files/pdf/upload_library/22/Ford/Wagon601-617.pdf
erklärt. In der Arbeit
A. Shen, An unfair game. Colorings and coverings. Tilings and Polyhedra revisited, Math. Intelligencer 19 (1997), no. 4, 48–50,
wird auch ein Beweis angegeben, der dem obigen Beweis der \(\mathbb Q\)-Variante des Satzes ähnelt (und auch ein Tensorprodukt verwendet, allerdings braucht man hier das Tensorprodukt von abelschen Gruppen, das wir nicht behandelt haben).
Der Begriff des Tensors aus der Physik, der dort eine wichtige Rolle spielt, hängt eng mit dem Tensorprodukt zusammen, wie wir es hier kennengelernt haben, bezeichnet aber in der Regel ein etwas anderes Konzept (das man in der Mathematik als Tensorfeld bezeichnen würde, das bedeutet, dass jedem Punkt eines gegebenen Raumes ein Element eines Tensorprodukts von Vektorräumen zugeordnet wird, wobei diese Vektorräume auch (in geeigneter Weise) von dem Punkt des betrachteten Raums abhängen können).
18.5.2 Das Tensorprodukt von Matrizen *
Wir haben für Homomorphismen \(f\colon V\to W\), \(g\colon V^\prime \to W^\prime \), das Tensorprodukt \(f\otimes g\) definiert (mit \((f\otimes g)(v\otimes w) = f(v)\otimes g(w)\)). Wenn alle diese Vektorräume endlichdimensional sind und wir Basen wählen, dann können wir die darstellende Matrix von Abbildungen der Form \(f\otimes g\) ausrechnen.
Sei \(K\) ein Körper. Seien \(f\colon V\to V^\prime \) und \(g\colon W\to W^\prime \) Homomorphismen von endlichdimensionalen \(K\)-Vektorräumen. Seien \(\mathscr B\), \(\mathscr B^\prime \), \(\mathscr C\), \(\mathscr C^\prime \) Basen von \(V\), \(V^\prime \), \(W\) bzw. \(W^\prime \). Seien \(\mathbf I\), \(\mathbf J\), \(\mathbf K\), \(\mathbf L\) die (endlichen) Indexmengen dieser Basen.
Sei \(\mathscr D\) die von \(\mathscr B\) und \(\mathscr C\) (wie in Satz 18.49) induzierte Basis von \(V\otimes W\) (mit Indexmenge \(\mathbf I\times \mathbf K\)), und \(\mathscr D^\prime \) die analog von \(\mathscr B^\prime \) und \(\mathscr C^\prime \) induzierte Basis von \(V^\prime \otimes _KW^\prime \) (mit Indexmenge \(\mathbf J\times \mathbf L\)).
Sei \(A = (a_{ij})_{i \in I,j\in J} = M^\mathscr B_{\mathscr B'}(f)\), \(B=(b_{kl})_{k\in K,l\in L} = M^\mathscr C_{\mathscr C'}(g)\). Dann gilt
Sind \(\mathbf I = \{ 1, \dots , \mathbf i\} \), usw., dann ordnen wir die Basen \(\mathscr D\) und analog \(\mathscr D^\prime \) folgendermaßen an: \(b_1\otimes c_1, b_1\otimes c_2, \cdots , b_1\otimes c_{\mathbf j}, b_2\otimes c_1, \dots \).
Schreiben wir \(\mathscr B= (b_i)_i\) und entsprechend für die anderen Basen. Für \((i,k)\in \mathbf I\times \mathbf K\) gilt
und das liefert genau die Behauptung.
Die Matrix \(A\otimes B\) nennt man aus naheliegenden Gründen das Tensorprodukt von Matrizen, oder das Kronecker-Produkt (benannt nach Leopold Kronecker).
Eigenschaften des Tensorprodukts von Abbildungen übersetzen sich dann in entsprechende Eigenschaften des Tensorprodukts von Matrizen, zum Beispiel:
Seien \(m, n, m^\prime , n^\prime , m^{\prime \prime }, n^{\prime \prime }\) natürliche Zahlen.
Sind \(A, B\in M_{m\times n}(K)\), \(C\in M_{m^\prime \times n^\prime }(K)\), so gilt \((A+B)\otimes C = A\otimes C + B\otimes C\).
Sind \(A\in M_{m\times n}(K)\), \(B\in M_{m^\prime \times n^\prime }(K)\), \(C\in M_{m^{\prime \prime }\times n^{\prime \prime }}(K)\), so gilt \((A\otimes B)\otimes C = A\otimes (B\otimes C)\).
Sind \(A\in GL_m(K)\) und \(B\in GL_n(K)\) invertierbare Matrizen, so ist \(A\otimes B\) invertierbar und es gilt \((A\otimes B)^{-1} = A^{-1}\otimes B^{-1}\).
Wir wollen noch skizzieren, wie man das Tensorprodukt von Matrizen benutzen kann, um eine Matrixgleichung
wobei \(A\), \(B\) und \(C\) gegebene Matrizen geeigneter Größen sind und \(X\) eine Matrix beschreibt, deren Einträge Unbestimmte sind, für die geeignete Werte gefunden werden sollen, als ein lineares Gleichungssystem in der üblichen Form umzuformulieren.
Seien \(V\) und \(W\) endlichdimensionale \(K\)-Vektorräume mit Basen \(\mathscr B= (b_1, \dots , b_n)\), \(\mathscr C= (c_1, \dots , c_m)\). Sei \(V^\vee \) der Dualraum von \(V\) und \(\mathscr B^\vee = (b_1^\vee , \dots , b_n^\vee )\) die zu \(\mathscr B\) duale Basis.
Sei \(\operatorname{vec}\) die Verkettung
wo der erste Isomorphismus die Umkehrabbildung der Abbildung ist, die einem Homomorphismus die darstellende Matrix bezüglich \(\mathscr B\) und \(\mathscr C\) zuordnet, der zweite der Isomorphismus aus Satz 18.52 und der dritte der Isomorphismus ist, den wir aus Satz 18.49 für \(\mathscr B^\vee \) und \(\mathscr C\) erhalten.
Dann ist für \(M = (m_{ij})_{i,j}\in M_{m\times n}(K)\) der Vektor
der Vektor, der aus \(M\) entsteht, wenn die einzelnen Spalten von \(M\) untereinander geschrieben werden.
Der Beweis besteht aus einer einfachen Rechnung, mit der man die einzelnen Schritte nachverfolgt. Es genügt, das für Matrizen zu machen, in denen genau ein Eintrag \(=1\) und alle anderen Einträge \(=0\) sind. Diese Matrizen entsprechen genau den Elemente \(b^\vee _j\otimes c_i\in V^\vee \otimes _K W\).
Seien nun \(V^\prime \) und \(W^\prime \) weitere endlichdimensionale Vektorräume, \(\mathscr B^\prime = (b_1^\prime , \dots , b_{n^\prime }^\prime )\) und \(\mathscr C^\prime =(c_1^\prime , \dots , c_{m^\prime }^\prime )\) Basen von \(V^\prime \) bzw. \(W^\prime \), \((V^\prime )^\vee \) der Dualraum von \(V^\prime \) und \(\mathscr B^{\prime \vee }\) die zu \(\mathscr B^\prime \) duale Basis.
Seien \(h\colon V^\prime \to V\) und \(f\colon W\to W^\prime \) Homomorphismen von endlichdimensionalen \(K\)-Vektorräumen. Wir erhalten dann einen Homomorphismus
der dem Homomorphismus
entspricht, wenn wir \(A = M^{\mathscr B^\prime }_\mathscr B(f)\), \(B=M^\mathscr C_{\mathscr C^\prime }(h)\) schreiben.
Mit Satz 18.52 erhalten wir eine Abbildung
die gegeben ist durch
wie man leicht nachrechnet.
Unter den durch die gewählten Basen gegebenen Isomorphismen \(V^\vee \otimes W\stackrel{\sim }{\smash {\longrightarrow }\rule{0pt}{0.4ex}}K^{mn}\) und \((V^\prime )^\vee \otimes _K W^\prime \stackrel{\sim }{\smash {\longrightarrow }\rule{0pt}{0.4ex}}K^{m^\prime n^\prime }\) entspricht diese Abbildung der Abbildung
Das ist praktisch die Definition des Tensorprodukts der Matrizen \(B^t = M^{\mathscr B^\vee }_{\mathscr B^{\prime \vee }}(f^\vee )\) und \(A\).
Wenn wir alles zusammensetzen, erhalten wir das kommutative Diagramm
in dem alle horizontalen Pfeile Isomorphismen sind, und die vertikalen Pfeile die Abbildungen sind, die wir gerade besprochen haben (in der linken Spalte also \(M\mapsto AMB\)).
Wir können folglich das Ergebnis mithilfe der Abbildung \(\operatorname{vec}\) aus dem obigen Lemma folgendermaßen formulieren. Für jede Matrix \(M\in M_{m\times n}(K)\) gilt
(Links bezeichnet \(\operatorname{vec}\) die Abbildung \(M_{m\times n}(K)\to K^{mn}\), rechts bezeichnet \(\operatorname{vec}\) die Abbildung \(M_{m^\prime \times n^\prime }(K)\to K^{m^\prime n^\prime }\).)
Sind also \(A\), \(B\) wie oben und \(C\in M_{m\times n}(K)\) gegeben und ist eine Matrix \(X\) mit \(AXB=C\) gesucht, so bedeutet das genau, dass \(X\) eine Lösung des linearen Gleichungssystems
sein muss.
18.5.3 Erweiterung der Skalare
Sei der Körper \(K\) ein Teilkörper eines Körpers \(L\). Wir können dann \(L\) als \(K\)-Vektorraum betrachten, wenn wir die Körperaddition auf \(L\) als Addition und die Einschränkung der Multiplikationsabbildung \(L\times L\to L\) auf \(K\times L\) als Skalarmultiplikation verwenden. Es ist leicht zu sehen, dass dann alle Vektorraumaxiome erfüllt sind. (Wir hatten diese Konstruktion schon in Beispiel LA1.6.2 erwähnt.)
Ist nun \(V\) ein \(K\)-Vektorraum, so können wir den \(K\)-Vektorraum \(V\otimes _KL\) bilden.
Seien \(L\) ein Körper, \(K\) ein Teilkörper von \(L\) und \(V\) ein \(K\)-Vektorraum. Mit der Skalarmultiplikation
ist dann \(V\otimes _KL\) ein \(L\)-Vektorraum. Wir sagen, man erhalte \(V\otimes _KL\) durch Erweiterung der Skalare von \(K\) nach \(L\).
Um zu überprüfen, dass die angegebene Abbildung wohldefiniert ist, fixieren wir \(a\in L\). Dann ist die Abbildung \(V\times L\to V\otimes _KL\), \((v,b)\mapsto v\otimes ab\), bilinear (wobei wir \(V\) und \(L\) als \(K\)-Vektorräume betrachten). Wir erhalten also eine (eindeutig bestimmte) lineare Abbildung \(V\otimes _KL\to V\otimes _KL\), \(v\otimes b\mapsto v\otimes ab\). Dies ist die Multiplikation mit dem Skalar \(a\in L\) auf dem \(L\)-Vektorraum \(V\otimes _KL\). Wenn wir diese Abbildungen für alle \(a\in L\) zusammen betrachten, haben wir eine Abbildung \(L\times V\otimes _KL\to V\otimes _KL\) wie im Satz.
Es sind dann die Vektorraumaxiome nachzurechnen. Das ist einfach.
Seien \(L\) ein Körper, \(K\) ein Teilkörper von \(L\) und \(V\) ein \(K\)-Vektorraum. Ist \((b_i)_{i\in I}\) eine Basis von \(V\) über \(K\), dann bilden die Elemente \(b_i\otimes 1\), \(i\in I\), eine Basis des \(L\)-Vektorraums \(V\otimes _KL\).
Insbesondere gilt (wenn \(V\) über \(K\) endliche Dimension hat), dass \(\dim _K V= \dim _L(V\otimes _KL)\) ist.
Wir betrachten die Wahl der Basis von \(V\) als wie Wahl eines Isomorphismus \(b\colon K^{(I)}\to V\). Durch »Tensorieren mit \(\operatorname{id}_L\)« erhalten wir (siehe Satz 18.43) eine lineare Abbildung
wobei wir für die erste Isomorphie noch die Verträglichkeit von Tensorprodukt und direkten Summen benutzen, Satz 18.48. Nach Bemerkung 18.44 ist auch dieser \(K\)-Vektorraum-Homomorphismus wieder bijektiv. Man überprüft unmittelbar, dass es sich dabei um einen Homomorphismus von \(L\)-Vektorräumen handelt, und dass \(b\otimes \operatorname{id}_L\) den Standardbasisvektor \(e_i\in L^{(I)}\) abbildet auf \(b_i\otimes 1\).
Die im Beweis benutzte Verträglichkeit mit Homomorphismen gilt ganz allgemein: Ist \(f\colon V\to W\) ein Homomorphismus von \(K\)-Vektorräumen, so ist \(f\otimes \operatorname{id}_L\colon V\otimes _KL\to W\otimes _KL\) ein \(L\)-Vektorraum-Homomorphismus. Wie wir schon wissen, ist diese Konstruktion verträglich mit der Verkettung von Homomorphismen. Insbesondere werden aus \(K\)-Vektorraum-Isomorphismen auf diese Weise \(L\)-Vektorraum-Isomorphismen.
Ein konkretes Beispiel für die hier betrachtete Situation ist die Körpererweiterung \(\mathbb R\subset \mathbb C\). Wir erhalten also für jeden \(\mathbb R\)-Vektorraum \(V\) einen \(\mathbb C\)-Vektorraum \(V\otimes _\mathbb R\mathbb C\), der als \(\mathbb C\)-Vektorraum die Dimension \(\dim _\mathbb R(V)\) hat.