Tensor

aus Wikipedia, der freien Enzyklopädie
Dies ist eine alte Version dieser Seite, zuletzt bearbeitet am 10. April 2008 um 14:21 Uhr durch Marda86 (Diskussion | Beiträge) (Tensor als Tensorprodukt von Vektoren ). Sie kann sich erheblich von der aktuellen Version unterscheiden.
Zur Navigation springen Zur Suche springen
Dieser Artikel oder Abschnitt ist nicht allgemeinverständlich formuliert. Die Mängel sind unter Diskussion:Tensor beschrieben. Wenn du diesen Baustein entfernst, begründe dies bitte auf der Artikeldiskussionsseite und ergänze den automatisch erstellten Projektseitenabschnitt Wikipedia:Unverständliche Artikel #Tensor um {{Erledigt|1=~~~~}}.

Dieser Artikel wurde auf der Qualitätssicherungsseite des Portals Mathematik eingetragen. Dies geschieht, um die Qualität der Artikel aus dem Themengebiet Mathematik auf ein akzeptables Niveau zu bringen.

Bitte hilf mit, die Mängel dieses Artikels zu beseitigen, und beteilige dich bitte an der Diskussion! (Artikel eintragen )

Als Tensor bezeichnet man eine Verallgemeinerung des Vektorbegriffs in der Differentialgeometrie und der Physik.

In der Physik tauchen Vektoren und Matrizen vor allem als Darstellungen linearer Abbildungen auf (z. B. das Trägheitsmoment). Dies hat zur Folge, dass sich die Darstellungen dieser Größen bei einer Koordinatentransformation in charakteristischer Weise ändern. Mehrdimensionale 'Matrizen' mit entsprechendem Transformationsverhalten werden als Tensoren bezeichnet.

In der Mathematik wird der Begriff allgemeiner über das Tensorprodukt von Vektorräumen definiert.

Einleitung

Wort- und Begriffsgeschichte

Das Wort Tensor (lat.: tendo ich spanne) wurde in den 1840er Jahren von Hamilton in die Mathematik eingeführt; er bezeichnete damit den Absolutbetrag seiner Quaternionen, also noch keinen Tensor im modernen Sinn.

Maxwell scheint den Spannungstensor, den er aus der Elastizitätstheorie in die Elektrodynamik übertrug, selbst noch nicht so genannt zu haben.

In seiner modernen Bedeutung, als Verallgemeinerung von Skalar, Vektor, Matrix, wird das Wort Tensor erstmals von Woldemar Voigt in seinem Buch Die fundamentalen physikalischen Eigenschaften der Krystalle in elementarer Darstellung (Leipzig, 1898) eingeführt.

Unter dem Titel absolute Differentialgeometrie entwickelten Gregorio Ricci-Curbastro und dessen Schüler Tullio Levi-Civita um 1890 die Tensorrechnung auf riemannschen Mannigfaltigkeiten; einem größeren Fachpublikum machten sie ihre Ergebnisse 1900 mit dem Buch Calcolo differenziale assoluto zugänglich, das bald in andere Sprachen übersetzt wurde, und aus dem sich Einstein unter großer Mühe die mathematischen Grundlagen aneignete, die er zur Formulierung der Allgemeinen Relativitätstheorie benötigte. Einstein selbst prägte 1916 den Begriff Tensoranalysis und trug mit seiner Theorie maßgeblich dazu bei, den Tensorkalkül bekannt zu machen; er führte überdies die einsteinsche Summenkonvention ein, nach der über doppelt auftretende Indizes stillschweigend summiert wird.

Tensoren in der Physik

Einführung

Viele physikalische Gesetze sind Proportionalitäten. Beispielsweise bewirkt eine an einem Körper angreifende Kraft eine Geschwindigkeitsänderung, die der Größe der Kraft proportional ist:

F = m v ˙ . {\displaystyle {\vec {F}}=m\cdot {\dot {\vec {v}}}.} {\displaystyle {\vec {F}}=m\cdot {\dot {\vec {v}}}.}

Diese Gleichung besagt zudem, dass die Richtung der Kraft auch die Richtung der Beschleunigung angibt. Derselbe Proportionalitätsfaktor, die Masse m {\displaystyle m} {\displaystyle m}, taucht auch in der Formel für die Bewegungsenergie

E k i n = 1 2 m v 2 {\displaystyle E_{\mathrm {kin} }={\frac {1}{2}}\cdot m\cdot v^{2}} {\displaystyle E_{\mathrm {kin} }={\frac {1}{2}}\cdot m\cdot v^{2}}

auf.

Es gibt jedoch Zusammenhänge, die sich nicht in dieser Weise beschreiben lassen, weil die zugehörigen Proportionalitätsfaktoren von der Richtung der beteiligten vektoriellen Größen abhängen. Ein Beispiel liefern Drehbewegungen: Greift an einem rotierenden Körper ein Drehmoment an, so bewirkt es eine Änderung der Winkelgeschwindigkeit, und eine Verdoppelung des Drehmomentes verdoppelt auch diesen Effekt. Es gilt also

M = J ω ˙ {\displaystyle {\vec {M}}=J\cdot {\dot {\vec {\omega }}}} {\displaystyle {\vec {M}}=J\cdot {\dot {\vec {\omega }}}}

mit einem Proportionalitätsfaktor J {\displaystyle J} {\displaystyle J}, der je nach Richtung von ω ˙ {\displaystyle {\dot {\vec {\omega }}}} {\displaystyle {\dot {\vec {\omega }}}} unterschiedlich sein kann. Auch müssen die Richtungen von M {\displaystyle {\vec {M}}} {\displaystyle {\vec {M}}} und ω ˙ {\displaystyle {\dot {\vec {\omega }}}} {\displaystyle {\dot {\vec {\omega }}}} nicht übereinstimmen. Die Rotationsenergie lässt sich ebenfalls mit einem richtungsabhängigen Faktor J {\displaystyle J} {\displaystyle J} als

E r o t = 1 2 J ω 2 {\displaystyle E_{\mathrm {rot} }={\frac {1}{2}}\cdot J\cdot \omega ^{2}} {\displaystyle E_{\mathrm {rot} }={\frac {1}{2}}\cdot J\cdot \omega ^{2}}

darstellen.

Diese Richtungsabhängigkeit bedeutet, dass das Trägheitsmoment J {\displaystyle J} {\displaystyle J} eine tensorielle Größe ist, genauer ein Tensor zweiter Stufe, der Trägheitstensor. „Stufe zwei" besagt dabei, dass zwei Vektoren involviert sind, in der ersten Formel wird über den Trägheitstensor J {\displaystyle J} {\displaystyle J} der Vektor ω ˙ {\displaystyle {\dot {\vec {\omega }}}} {\displaystyle {\dot {\vec {\omega }}}} auf den Vektor M {\displaystyle {\vec {M}}} {\displaystyle {\vec {M}}} abgebildet (lineare Abbildung), in der zweiten Energieformel tritt der Tensor als Bestandteil einer Bilinearform auf, die dem Drehimpuls-Vektor ω {\displaystyle {\vec {\omega }}} {\displaystyle {\vec {\omega }}} einen Skalar zuordnet (die Energie). Tensoren der zweiten Stufe können also grob gesagt aus Vektoren wieder Vektoren machen oder aus Paaren von Vektoren Zahlen. Mathematisch entspricht das einer linearen Abbildung bzw. einer Bilinearform, die sich beide durch eine 3 × 3 {\displaystyle 3\times 3} {\displaystyle 3\times 3}-Matrix beschreiben lassen. Rechnerisch ist ein Tensor zweiter Stufe also nichts anderes als eine (quadratische) Matrix, und die obigen Formeln nehmen die Form

M = J ω ˙ {\displaystyle {\vec {M}}=J\cdot {\dot {\vec {\omega }}}} {\displaystyle {\vec {M}}=J\cdot {\dot {\vec {\omega }}}} bzw. E r o t = 1 2 ω T J ω {\displaystyle E_{\mathrm {rot} }={\frac {1}{2}}\cdot {\vec {\omega }}^{T}\cdot J\cdot {\vec {\omega }}} {\displaystyle E_{\mathrm {rot} }={\frac {1}{2}}\cdot {\vec {\omega }}^{T}\cdot J\cdot {\vec {\omega }}}

mit der entsprechenden Matrix J {\displaystyle J} {\displaystyle J} an.

Tensoren als Verallgemeinerung von Skalar, Vektor und Matrix

Für manche Anwendungen, zum Beispiel in der Elastizitätstheorie und fast überall in den Ingenieurwissenschaften, ist es vollkommen ausreichend, sich Tensoren als eine Fortsetzung der Reihe Skalar, Vektor, Matrix vorzustellen. Dabei unterscheidet man Tensoren verschiedener Stufen (auch Rang genannt):

  • Ein Tensor nullter Stufe ist eine Zahl, auch Skalar genannt.
  • Ein Tensor erster Stufe wird durch einen Spaltenvektor dargestellt. Im n-dimensionalen Raum hat ein solcher Tensor genau n Koeffizienten.
  • Ein Tensor zweiter Stufe wird durch eine quadratische Matrix dargestellt, also ein Zahlenschema, in dem jeder der n2 Koeffizienten des Tensors durch zwei Indizes bezeichnet ist (Beispiele: Arbeitsblatt in einem Tabellenkalkulationsprogramm; zweidimensionales Pixelbild).
  • Ein Tensor dritter Stufe ließe sich durch eine würfelförmige Anordnung seiner n3 Koeffizienten darstellen, die durch je drei Indizes „adressiert" werden (Arbeitsmappe in der Tabellenkalkulation; Videosequenz [Pixelbilder mit zusätzlicher Zeitkoordinate]).
  • Ein Tensor m-ter Stufe hat dementsprechend nm Koeffizienten, die mit Hilfe von m Indizes auseinandergehalten werden. Dabei ist ein Tensor nur dann vollständig bestimmt, wenn zu jeder möglichen Belegung der Indizes der entsprechende Koeffizient angegeben ist. Man kann dies mit einer Datenbank vergleichen, deren Schlüssel aus den m Indizes besteht und in der für jeden zulässigen Schlüssel ein Wert eingetragen ist.

Im Allgemeinen wird zusätzlich gefordert, dass die Tensoren unter Koordinatentransformationen ein vorbestimmtes Verhalten aufweisen. Unter einer Koordinatentransformation kann man sich beispielsweise eine Drehung oder Verschiebung des zugrundeliegenden kartesischen Koordinatensystems vorstellen. Diese zusätzliche Forderung ist besonders wichtig im Rahmen der speziellen und allgemeinen Relativitätstheorie, in der es um das Transformationsverhalten (Lorentz-Transformation) von Gleichungen geht.

Tensoren als "indizierte Größen"

Ein Tensor n {\displaystyle n} {\displaystyle n}-ter Stufe ist eine n {\displaystyle n} {\displaystyle n}-fach indizierte Größe

T = ( T i 1 , i 2 , . . . , i n ) i k = 1 , , d k , k = 1 , , n {\displaystyle T=(T_{i_{1},i_{2},...,i_{n}})_{i_{k}=1,\dots ,d_{k},\;k=1,\dots ,n}} {\displaystyle T=(T_{i_{1},i_{2},...,i_{n}})_{i_{k}=1,\dots ,d_{k},\;k=1,\dots ,n}}.

Oft wird der Tensor nur mit dem in Klammern stehhenden indexbehafteten Symbol T i 1 , i 2 , . . . , i n {\displaystyle T_{i_{1},i_{2},...,i_{n}}} {\displaystyle T_{i_{1},i_{2},...,i_{n}}} bezeichnet.

Jeder Index, beispielsweise i 1 {\displaystyle i_{1}} {\displaystyle i_{1}}, durchläuft einen vorbestimmten Wertebereich natürlicher Zahlen, beispielsweise i 1 = 1 , 2 , 3 {\displaystyle i_{1}=1,2,3} {\displaystyle i_{1}=1,2,3}. Zu jeder möglichen Indexkombination enthält der Tensor eine reelle oder komplexe Zahl. Die indizierte Größe kann sowohl ein Skalar ( n = 0 {\displaystyle n=0} {\displaystyle n=0}), einen Vektor ( n = 1 {\displaystyle n=1} {\displaystyle n=1}) oder eine Matrix ( n = 2 {\displaystyle n=2} {\displaystyle n=2}) darstellen. Insofern handelt es sich um eine Verallgemeinerung der Größen Skalar, Vektor und Matrix. Weitere Informationen über das Thema findet man unter Indexdarstellungen der Relativitätstheorie.

Tensor als Tensorprodukt von Vektoren

Als Tensorprodukt wird eine Verknüpfung {\displaystyle \otimes } {\displaystyle \otimes } zwischen zwei Vektoren v und w der Vektorräume V und W über demselben Körper K definiert. Diese Verknüpfung wird in der üblichen Form zweistelliger Rechenoperationen notiert,

T = v w {\displaystyle T=v\otimes w} {\displaystyle T=v\otimes w}.

Die Verknüpfung {\displaystyle \otimes } {\displaystyle \otimes } kann als Produktoperation interpretiert werden. Die Produktoperation {\displaystyle \otimes } {\displaystyle \otimes } ist eine bilineare Abbildung. Den Vektoren v und w wird ein Tensorprodukt zugeordnet:

( v , w ) v w {\displaystyle (v,w)\mapsto v\otimes w} {\displaystyle (v,w)\mapsto v\otimes w}

Für diese Abbildung gelten die folgenden Regeln (ergeben sich direkt aus der Bilinearität):

( v 1 + v 2 ) w = v 1 w + v 2 w {\displaystyle (v_{1}+v_{2})\otimes w=v_{1}\otimes w+v_{2}\otimes w} {\displaystyle (v_{1}+v_{2})\otimes w=v_{1}\otimes w+v_{2}\otimes w}
v ( w 1 + w 2 ) = v w 1 + v w 2 {\displaystyle v\otimes (w_{1}+w_{2})=v\otimes w_{1}+v\otimes w_{2}} {\displaystyle v\otimes (w_{1}+w_{2})=v\otimes w_{1}+v\otimes w_{2}}
( λ v ) w = λ ( v w ) = v ( λ w ) {\displaystyle (\lambda v)\otimes w=\lambda \cdot (v\otimes w)=v\otimes (\lambda w)} {\displaystyle (\lambda v)\otimes w=\lambda \cdot (v\otimes w)=v\otimes (\lambda w)}

Dabei sind v 1 {\displaystyle v_{1}} {\displaystyle v_{1}} und v 2 {\displaystyle v_{2}} {\displaystyle v_{2}} jeweils ein beliebiges Element des Vektorraumes V; w 1 {\displaystyle w_{1}} {\displaystyle w_{1}} und w 2 {\displaystyle w_{2}} {\displaystyle w_{2}} sind jeweils ein beliebiges Element des Vektorraumes W; λ {\displaystyle \lambda } {\displaystyle \lambda } ist ein beliebiges Element des Grundkörpers K.

Im Allgemeinen nichts miteinander zu tun haben jedoch

v w {\displaystyle v\otimes w} {\displaystyle v\otimes w} und w v {\displaystyle w\otimes v} {\displaystyle w\otimes v},

selbst wenn V = W ist; andernfalls gehören sie sogar unterschiedlichen Vektorräumen an.

Diese Regeln sehen aus wie Distributivgesetze bzw. Assoziativgesetze der Multiplikation; auch daher der Name Tensorprodukt. Damit das Tensorprodukt diese Eigenschaften haben kann, muss der Raum der Tensorprodukte selbst wieder ein Vektorraum sein. Das heißt aber insbesondere, dass beliebige Summen

T = j = 1 k v j w j , k N , v 1 , , v k V , w 1 , , w k W {\displaystyle T=\sum _{j=1}^{k}v_{j}\otimes w_{j},\qquad k\in \mathbb {N} ,\quad v_{1},\dots ,v_{k}\in V,\quad w_{1},\dots ,w_{k}\in W} {\displaystyle T=\sum _{j=1}^{k}v_{j}\otimes w_{j},\qquad k\in \mathbb {N} ,\quad v_{1},\dots ,v_{k}\in V,\quad w_{1},\dots ,w_{k}\in W}

in diesem Tensorproduktvektorraum gebildet werden können. Diese stellen die allgemeinste Form eines Tensors 2. Stufe dar, jedoch kann mit den angegebenen Rechenregeln derselbe Tensor durch verschiedene Summen von Tensorprodukten dargestellt werden.

Da die Menge der Tensorprodukte T = V W {\displaystyle T=V\otimes W} {\displaystyle T=V\otimes W} wieder einen Vektorraum über dem Körper K bildet, kann ein Tensor der Form u ( v w ) {\displaystyle u\otimes (v\otimes w)} {\displaystyle u\otimes (v\otimes w)} gebildet werden. u ist dabei ein Vektor aus einem weiteren Vektorraum U über K. Man kann zeigen, dass es auf die Reihenfolge der Produktbildung nicht ankommt, also u ( v w ) {\displaystyle u\otimes (v\otimes w)} {\displaystyle u\otimes (v\otimes w)} = ( u v ) w {\displaystyle (u\otimes v)\otimes w} {\displaystyle (u\otimes v)\otimes w}. Durch Fortsetzung ist es möglich, Tensorprodukte mit beliebig vielen Faktoren zu definieren:

T = v 1 v 2 v n , v j V j , j = 1 , , n {\displaystyle T=v_{1}\otimes v_{2}\otimes \dots \otimes v_{n},\qquad v_{j}\in V_{j},\quad j=1,\dots ,n} {\displaystyle T=v_{1}\otimes v_{2}\otimes \dots \otimes v_{n},\qquad v_{j}\in V_{j},\quad j=1,\dots ,n}.

Jeder Tensor kann als Summe reiner Tensorprodukte dargestellt werden, insbesondere als Linearkombination der Tensorprodukte der Basisvektoren,

T = j 1 d 1 , , j n d n T j 1 , , j n e j 1 ( 1 ) e j n ( n ) {\displaystyle T=\sum _{j_{1}\in d_{1},\dots ,j_{n}\in d_{n}}T_{j_{1},\dots ,j_{n}}\;e_{j_{1}}^{(1)}\otimes \dots \otimes e_{j_{n}}^{(n)}} {\displaystyle T=\sum _{j_{1}\in d_{1},\dots ,j_{n}\in d_{n}}T_{j_{1},\dots ,j_{n}}\;e_{j_{1}}^{(1)}\otimes \dots \otimes e_{j_{n}}^{(n)}}.

Dabei ist ( e 1 ( k ) , e 2 ( k ) , , e d k ( k ) ) {\displaystyle (e_{1}^{(k)},e_{2}^{(k)},\dots ,e_{d_{k}}^{(k)})} {\displaystyle (e_{1}^{(k)},e_{2}^{(k)},\dots ,e_{d_{k}}^{(k)})} eine Basis des Vektorraums V ( k ) {\displaystyle V^{(k)}} {\displaystyle V^{(k)}}, aus welchem der k-te Faktor des Tensorproduktes stammt. Fasst man die Koeffizienten dieser Basisdarstellung zu einem mehrfach indizierten Tupel zusammen, so entsteht die obige Tensordarstellung.

Beispielsweise kann man in einem Tensor a b + c d {\displaystyle a\otimes b+c\otimes d} {\displaystyle a\otimes b+c\otimes d} die vorkommenden Vektoren in ihren Basen darstellen,

a = a 1 e 1 ( 1 ) + a 2 e 2 ( 1 ) {\displaystyle a=a_{1}e_{1}^{(1)}+a_{2}e_{2}^{(1)}} {\displaystyle a=a_{1}e_{1}^{(1)}+a_{2}e_{2}^{(1)}}, c = c 1 e 1 ( 1 ) + c 2 e 2 ( 1 ) {\displaystyle c=c_{1}e_{1}^{(1)}+c_{2}e_{2}^{(1)}} {\displaystyle c=c_{1}e_{1}^{(1)}+c_{2}e_{2}^{(1)}}, sowie
b = b 1 e 1 ( 2 ) + b 2 e 2 ( 2 ) + b 3 e 3 ( 2 ) {\displaystyle b=b_{1}e_{1}^{(2)}+b_{2}e_{2}^{(2)}+b_{3}e_{3}^{(2)}} {\displaystyle b=b_{1}e_{1}^{(2)}+b_{2}e_{2}^{(2)}+b_{3}e_{3}^{(2)}}, d = d 1 e 1 ( 2 ) + d 2 e 2 ( 2 ) + d 3 e 3 ( 2 ) {\displaystyle d=d_{1}e_{1}^{(2)}+d_{2}e_{2}^{(2)}+d_{3}e_{3}^{(2)}} {\displaystyle d=d_{1}e_{1}^{(2)}+d_{2}e_{2}^{(2)}+d_{3}e_{3}^{(2)}},

und erhält die Basisdarstellung

a b + c d = j 1 = 1 2 j 2 = 1 3 ( a j 1 b j 2 + c j 1 d j 2 ) e j 1 ( 1 ) e j 2 ( 2 ) {\displaystyle a\otimes b+c\otimes d=\sum _{j_{1}=1}^{2}\sum _{j_{2}=1}^{3}(a_{j_{1}}b_{j_{2}}+c_{j_{1}}d_{j_{2}})\;e_{j_{1}}^{(1)}\otimes e_{j_{2}}^{(2)}} {\displaystyle a\otimes b+c\otimes d=\sum _{j_{1}=1}^{2}\sum _{j_{2}=1}^{3}(a_{j_{1}}b_{j_{2}}+c_{j_{1}}d_{j_{2}})\;e_{j_{1}}^{(1)}\otimes e_{j_{2}}^{(2)}}

Tensoren als multilineare Abbildung

Tensoren T {\displaystyle T} {\displaystyle T} sind multilineare Abbildungen in einen Vektorraum W {\displaystyle W} {\displaystyle W}:

T : V 1 × V 2 × × V n W {\displaystyle T:V_{1}^{}\times V_{2}^{}\times \dots \times V_{n}^{}\to W} {\displaystyle T:V_{1}^{}\times V_{2}^{}\times \dots \times V_{n}^{}\to W}.

V 1 ,   ,   V n {\displaystyle V_{1},\ \dots ,\ V_{n}} {\displaystyle V_{1},\ \dots ,\ V_{n}} und W {\displaystyle W} {\displaystyle W} sind jeweils Vektorräume über dem gemeinsamen Körper K {\displaystyle K} {\displaystyle K}. Mit n {\displaystyle n} {\displaystyle n} wird die Stufe des Tensors bezeichnet. v 1 ,   ,   v n {\displaystyle v_{1},\ \dots ,\ v_{n}} {\displaystyle v_{1},\ \dots ,\ v_{n}} seien jeweils beliebige Vektoren aus den entsprechenden Vektorräumen V 1 ,   ,   V n {\displaystyle V_{1},\ \dots ,\ V_{n}} {\displaystyle V_{1},\ \dots ,\ V_{n}}. Dann lässt sich eine multilineare Abbildung auch folgendermaßen darstellen:

( v 1 , , v n ) T ( v 1 , , v n ) {\displaystyle (v_{1},\dots ,v_{n})\mapsto T(v_{1},\dots ,v_{n})} {\displaystyle (v_{1},\dots ,v_{n})\mapsto T(v_{1},\dots ,v_{n})}

Multilinear bedeutet, dass die Abbildung linear in jedem ihrer Argumente sein muss. Sei i ein Index, der von 1 bis n läuft. x i {\displaystyle x_{i}} {\displaystyle x_{i}} und y i {\displaystyle y_{i}} {\displaystyle y_{i}} seien zwei beliebige Vektoren aus dem Vektorraum V i {\displaystyle V_{i}} {\displaystyle V_{i}}. λ {\displaystyle \lambda } {\displaystyle \lambda } sei ein beliebiges Element des Körpers K {\displaystyle K} {\displaystyle K}. Dann muss für alle i = 1 , . . . , n {\displaystyle i=1,...,n} {\displaystyle i=1,...,n} gelten:

T ( v 1 , , x i + y i , , v n ) = T ( v 1 , , x i , , v n ) + T ( v 1 , , y i , , v n )   {\displaystyle T(v_{1},\dots ,x_{i}+y_{i},\dots ,v_{n})=T(v_{1},\dots ,x_{i},\dots ,v_{n})+T(v_{1},\dots ,y_{i},\dots ,v_{n})\ } {\displaystyle T(v_{1},\dots ,x_{i}+y_{i},\dots ,v_{n})=T(v_{1},\dots ,x_{i},\dots ,v_{n})+T(v_{1},\dots ,y_{i},\dots ,v_{n})\ }
T ( v 1 , , λ x i , , v n ) = λ T ( v 1 , , x i , , v n )   {\displaystyle T(v_{1},\dots ,\lambda *x_{i},\dots ,v_{n})=\lambda *T(v_{1},\dots ,x_{i},\dots ,v_{n})\ } {\displaystyle T(v_{1},\dots ,\lambda *x_{i},\dots ,v_{n})=\lambda *T(v_{1},\dots ,x_{i},\dots ,v_{n})\ }

Der Zusammenhang mit den Tensorprodukten ergibt sich durch folgende Identifikation:

T ( v 1 ,   , v n ) = v 1 v 2 v n , v j V j , j = 1 , , n {\displaystyle T(v_{1},\dots \ ,v_{n})=v_{1}\otimes v_{2}\otimes \dots \otimes v_{n},\qquad v_{j}\in V_{j},\quad j=1,\dots ,n} {\displaystyle T(v_{1},\dots \ ,v_{n})=v_{1}\otimes v_{2}\otimes \dots \otimes v_{n},\qquad v_{j}\in V_{j},\quad j=1,\dots ,n}.

Basis und Koordinaten von Vektoren

Für ein tieferes Verständnis von Tensoren ist es unerlässlich zu rekapitulieren, was ein Vektor ist:

  • ein geometrisches Objekt,
  • das einem Vektorraum angehört,
  • das durch Koordinaten bezüglich einer Basis dargestellt werden kann,
  • das aber nicht von einer bestimmten Basis abhängt, sondern unter Basiswechsel (= Koordinatentransformation) invariant bleibt.

Wir betrachten einen Vektor v {\displaystyle {\vec {v}}} {\displaystyle {\vec {v}}} aus einem n {\displaystyle n} {\displaystyle n}-dimensionalen Vektorraum V {\displaystyle V} {\displaystyle V}. Bezüglich einer gegebenen Basis e 1 , . . . , e n {\displaystyle {{\vec {e}}_{1},...,{\vec {e}}_{n}}} {\displaystyle {{\vec {e}}_{1},...,{\vec {e}}_{n}}} ist v {\displaystyle {\vec {v}}} {\displaystyle {\vec {v}}} durch seine Koordinaten v 1 , . . . , v n {\displaystyle v^{1},...,v^{n}} {\displaystyle v^{1},...,v^{n}} gegeben:

v = v 1 e 1 + . . . + v n e n {\displaystyle {\vec {v}}=v^{1}{\vec {e}}_{1}+...+v^{n}{\vec {e}}_{n}} {\displaystyle {\vec {v}}=v^{1}{\vec {e}}_{1}+...+v^{n}{\vec {e}}_{n}}.

Das Hochstellen der Koordinatenindizes ist in einigen, aber nicht allen Anwendungen der Tensorrechnung üblich; es steht im Zusammenhang mit der Unterscheidung von ko- und kontravarianten Größen; mehr dazu unten.

Koordinaten eines Tensors

Jeder der Vektorräume V 1 , , V n {\displaystyle V_{1},\dots ,V_{n}} {\displaystyle V_{1},\dots ,V_{n}} besitzt eine Basis. Als Basisvektoren der jeweiligen Vektorräume werden e i 1 , , e i n {\displaystyle {\vec {e}}_{i_{1}},\dots ,{\vec {e}}_{i_{n}}} {\displaystyle {\vec {e}}_{i_{1}},\dots ,{\vec {e}}_{i_{n}}} bezeichnet. Der erste Index unterscheidet dabei die Basisvektoren des jeweiligen Vektorraums, der Vektorraum selbst wird mit dem zweiten Index gekennzeichnet. e k 1 {\displaystyle {\vec {e}}_{k_{1}}} {\displaystyle {\vec {e}}_{k_{1}}} stellt also den k-ten Basisvektor des Vektorraums V 1 {\displaystyle V_{1}} {\displaystyle V_{1}} dar. Der Vektorraum V 1 {\displaystyle V_{1}} {\displaystyle V_{1}} hat eine bestimmte Dimension d {\displaystyle d} {\displaystyle d}, so dass er d {\displaystyle d} {\displaystyle d} Basisvektoren e 1 , , e d   {\displaystyle {\vec {e}}_{1},\dots ,{\vec {e}}_{d}\ } {\displaystyle {\vec {e}}_{1},\dots ,{\vec {e}}_{d}\ } besitzt. Das gilt entsprechend für alle Vektorräume V 1 ,   ,   V n {\displaystyle V_{1},\ \dots ,\ V_{n}} {\displaystyle V_{1},\ \dots ,\ V_{n}}.

Die Koordinaten eines Tensors sind folgendermaßen definiert:

T i 1 , , i n := T ( e i 1 , , e i n ) {\displaystyle T_{{i_{1}},\dots ,{i_{n}}}:=T({\vec {e}}_{i_{1}},\dots ,{\vec {e}}_{i_{n}})} {\displaystyle T_{{i_{1}},\dots ,{i_{n}}}:=T({\vec {e}}_{i_{1}},\dots ,{\vec {e}}_{i_{n}})}

Handelt es sich bei dem Tensor T {\displaystyle T} {\displaystyle T} um Elemente eines mehrdimensionalen Vektorraums W {\displaystyle W} {\displaystyle W}, so ist nach obiger Definition T ( e i 1 , , e i n ) {\displaystyle T({\vec {e}}_{i_{1}},\dots ,{\vec {e}}_{i_{n}})} {\displaystyle T({\vec {e}}_{i_{1}},\dots ,{\vec {e}}_{i_{n}})} ein Element aus diesem Vektorraum W {\displaystyle W} {\displaystyle W}. T {\displaystyle T} {\displaystyle T} kann wiederum nach den Basisvektoren dieses Vektorraums W {\displaystyle W} {\displaystyle W} entwickelt werden. Dadurch können die Koordinaten als rein skalare Größen dargestellt werden. Die Koordinaten erhalten in dieser Darstellung einen weiteren Index i {\displaystyle i} {\displaystyle i}.

Jeder beliebige Vektor v j {\displaystyle {\vec {v}}_{j}} {\displaystyle {\vec {v}}_{j}} des Vektorraums V j {\displaystyle V_{j}} {\displaystyle V_{j}} lässt sich als Linearkombination seiner Basisvektoren darstellen, so dass gilt:

v j = i v i j e i j {\displaystyle {\vec {v}}_{j}=\sum _{i}v_{i_{j}}*{\vec {e}}_{i_{j}}} {\displaystyle {\vec {v}}_{j}=\sum _{i}v_{i_{j}}*{\vec {e}}_{i_{j}}}

Mit v i j {\displaystyle v_{ij}} {\displaystyle v_{ij}} werden die Koordinaten des Vektors v j {\displaystyle {\vec {v}}_{j}} {\displaystyle {\vec {v}}_{j}} bezeichnet. Die Koordinaten des Vektors v {\displaystyle {\vec {v}}} {\displaystyle {\vec {v}}} sind Skalare aus dem Körper K {\displaystyle K} {\displaystyle K}. Für die Abbildung der Vektoren v 1 , , v n   {\displaystyle {{\vec {v}}_{1},\dots ,{\vec {v}}_{n}}\ } {\displaystyle {{\vec {v}}_{1},\dots ,{\vec {v}}_{n}}\ } unter dem Tensor T {\displaystyle T} {\displaystyle T} gilt also ganz allgemein:

T ( v 1 , , v n ) = i 1 i n v i 1 v i n T i 1 , , i n {\displaystyle T({\vec {v}}_{1},\dots ,{\vec {v}}_{n})=\sum _{i_{1}}\cdots \sum _{i_{n}}v_{i_{1}}\cdots v_{i_{n}}T_{{i_{1}},\dots ,{i_{n}}}} {\displaystyle T({\vec {v}}_{1},\dots ,{\vec {v}}_{n})=\sum _{i_{1}}\cdots \sum _{i_{n}}v_{i_{1}}\cdots v_{i_{n}}T_{{i_{1}},\dots ,{i_{n}}}}

Basiswechsel und Koordinatentransformation

Seien e i 1 , , e i n {\displaystyle {e'_{i_{1}},\dots ,e'_{i_{n}}}} {\displaystyle {e'_{i_{1}},\dots ,e'_{i_{n}}}} und e i 1 , , e i n {\displaystyle {e_{i_{1}},\dots ,e_{i_{n}}}} {\displaystyle {e_{i_{1}},\dots ,e_{i_{n}}}} jeweils unterschiedliche Basen der Vektorräume V 1 , , V n   {\displaystyle V_{1},\dots ,V_{n}\ } {\displaystyle V_{1},\dots ,V_{n}\ }. Jeder Vektor, also auch jeder Basisvektor e 1 1 {\displaystyle {e'_{1_{1}}}} {\displaystyle {e'_{1_{1}}}} kann als Linearkombination der Basisvektoren e i 1 {\displaystyle {e_{i_{1}}}} {\displaystyle {e_{i_{1}}}} dargestellt werden. Der Basisvektor e i l {\displaystyle e'_{i_{l}}} {\displaystyle e'_{i_{l}}} werde dargestellt durch:

e i l = j l a j l , i l e j l {\displaystyle e'_{i_{l}}=\sum _{j_{l}}a_{j_{l},i_{l}}e_{j_{l}}} {\displaystyle e'_{i_{l}}=\sum _{j_{l}}a_{j_{l},i_{l}}e_{j_{l}}}

Die Größen a j l , i l {\displaystyle a_{j_{l},i_{l}}} {\displaystyle a_{j_{l},i_{l}}} bestimmen also die Basistransformation zwischen den Basen e i l {\displaystyle e'_{i_{l}}} {\displaystyle e'_{i_{l}}} und e i l {\displaystyle e_{i_{l}}} {\displaystyle e_{i_{l}}}. Das gilt für alle l = 1 , , n {\displaystyle l=1,\dots ,n} {\displaystyle l=1,\dots ,n}.

Ferner stelle T ( e i 1 , , e i n ) {\displaystyle T(e'_{i_{1}},\dots ,e'_{i_{n}})} {\displaystyle T(e'_{i_{1}},\dots ,e'_{i_{n}})} die Koordinaten T i 1 , , i n {\displaystyle T'_{{i_{1}},\dots ,{i_{n}}}} {\displaystyle T'_{{i_{1}},\dots ,{i_{n}}}} des Tensors T in der Basis e i 1 , , e i n {\displaystyle e'_{i_{1}},\dots ,e'_{i_{n}}} {\displaystyle e'_{i_{1}},\dots ,e'_{i_{n}}} dar. Dann ergibt sich für das Transformationsverhalten der Tensorkoordinaten:

T i 1 , , i n = j 1 j n a j 1 , i 1 a j n , i n T j 1 , , j n {\displaystyle T'_{{i_{1}},\dots ,{i_{n}}}=\sum _{j_{1}}\dots \sum _{j_{n}}a_{j_{1},i_{1}}\dots a_{j_{n},i_{n}}T_{{j_{1}},\dots ,{j_{n}}}} {\displaystyle T'_{{i_{1}},\dots ,{i_{n}}}=\sum _{j_{1}}\dots \sum _{j_{n}}a_{j_{1},i_{1}}\dots a_{j_{n},i_{n}}T_{{j_{1}},\dots ,{j_{n}}}}

Wichtig: Es wird in der Regel zwischen den Koordinatendarstellung des Tensors T i 1 , , i n {\displaystyle T'_{{i_{1}},\dots ,{i_{n}}}} {\displaystyle T'_{{i_{1}},\dots ,{i_{n}}}} und den Transformationsmatrizen a j 1 , i 1 a j n , i n {\displaystyle a_{j_{1},i_{1}}\dots a_{j_{n},i_{n}}} {\displaystyle a_{j_{1},i_{1}}\dots a_{j_{n},i_{n}}} unterschieden. Die Transformationsmatrix a j 1 , i 1 a j n , i n {\displaystyle a_{j_{1},i_{1}}\dots a_{j_{n},i_{n}}} {\displaystyle a_{j_{1},i_{1}}\dots a_{j_{n},i_{n}}} ist zwar eine indizierte Größe aber kein Tensor. Sowohl die Galilei-Transformation der klassischen Mechanik als auch die Lorentz-Transformation der speziellen Relativitätstheorie sind Beispiele für eine solche Transformationsmatrix. Im Rahmen der speziellen Relativitätstheorie sind Lorentz-Tensoren Größen, deren Koordinaten sich unter einer Lorentz-Transformation transformieren. Die Lorentz-Transformation stellt also eine Koordinatentransformation des Lorentz-Tensors dar. Deshalb ist der Lorentz-Tensor invariant unter Lorentz-Transformation. Der abstrakte Formalismus findet aus physikalischer Sicht hier seine Berechtigung.

Beispiele von wichtigen Tensoren in der Physik

Das Kronecker-Delta δ {\displaystyle \delta } {\displaystyle \delta } ist ein Tensor zweiter Stufe. Es ist ein Element von R 3 R 3 {\displaystyle \mathbb {R} ^{3}\otimes \mathbb {R} ^{3}} {\displaystyle \mathbb {R} ^{3}\otimes \mathbb {R} ^{3}}; es ist also eine lineare Abbildung δ : R 3 × R 3 R {\displaystyle \delta :\mathbb {R} ^{3}\times \mathbb {R} ^{3}\to \mathbb {R} } {\displaystyle \delta :\mathbb {R} ^{3}\times \mathbb {R} ^{3}\to \mathbb {R} }. Lineare Abbildungen sind durch die Wirkung auf die Basisvektoren eindeutig bestimmt. So ist das Kronecker-Delta eindeutig durch

δ ( e i , e j ) = δ i j = { 1 , falls  i = j , 0 , falls  i j , {\displaystyle \delta (e_{i},e_{j})=\delta _{ij}=\left\{{\begin{matrix}1,&{\mbox{falls }}i=j,\0,円&{\mbox{falls }}i\neq j,\end{matrix}}\right.} {\displaystyle \delta (e_{i},e_{j})=\delta _{ij}=\left\{{\begin{matrix}1,&{\mbox{falls }}i=j,\0,円&{\mbox{falls }}i\neq j,\end{matrix}}\right.}

bestimmt.

Das Levi-Civita-Symbol ε i j k {\displaystyle \varepsilon _{ijk}} {\displaystyle \varepsilon _{ijk}}, das zur Berechnung des Kreuzprodukts zwischen Vektoren gebraucht wird, ist ein Tensor dritter Stufe. Es gilt ε : R 3 × R 3 × R 3 R {\displaystyle \varepsilon :\mathbb {R} ^{3}\times \mathbb {R} ^{3}\times \mathbb {R} ^{3}\to \mathbb {R} } {\displaystyle \varepsilon :\mathbb {R} ^{3}\times \mathbb {R} ^{3}\times \mathbb {R} ^{3}\to \mathbb {R} }. Man schreibt ε ( e i , e j , e k ) = ε i j k {\displaystyle \varepsilon (e_{i},e_{j},e_{k})=\varepsilon _{ijk}} {\displaystyle \varepsilon (e_{i},e_{j},e_{k})=\varepsilon _{ijk}}.

Der Energie-Impuls-Tensor T α β {\displaystyle T^{\alpha \beta }} {\displaystyle T^{\alpha \beta }} und der elektromagnetische Feldstärketensor F α β {\displaystyle F^{\alpha \beta }} {\displaystyle F^{\alpha \beta }} sind Tensoren zweiter Stufe auf der vierdimensionalen Basis der Raumzeit.

Summationskonvention

Im weiteren Verlauf dieses Artikels wird die von Einstein eingeführte Summationskonvention verwendet: über jeden Index, der in einem Tensorausdruck genau zweimal vorkommt, und zwar einmal als tief- und einmal als hochgestellter Index, wird automatisch summiert. Es ist also

T i j k j {\displaystyle T_{i}{}^{jk}{}_{j}} {\displaystyle T_{i}{}^{jk}{}_{j}}

von nun an eine Kurzschreibweise für

j = 1 n T i j k j {\displaystyle \sum _{j=1}^{n}T_{i}{}^{jk}{}_{j}} {\displaystyle \sum _{j=1}^{n}T_{i}{}^{jk}{}_{j}}.

Kovariante und Kontravariante Tensoren

Die Vektoren des dualen Vektorraums V {\displaystyle V^{*}} {\displaystyle V^{*}} sind Tensoren der Stufe 1. Sie werden als kovariante Tensoren bezeichnet.

v : V K {\displaystyle \mathbf {v} ^{*}:V\to K} {\displaystyle \mathbf {v} ^{*}:V\to K}

Die Basisvektoren des dualen Vektorraums V {\displaystyle V^{*}} {\displaystyle V^{*}} seien gegeben durch:

B = ( e 1 ,   , e d ) {\displaystyle B^{*}=(\mathbf {e} ^{1},\dots \ ,\mathbf {e} ^{d})} {\displaystyle B^{*}=(\mathbf {e} ^{1},\dots \ ,\mathbf {e} ^{d})}

Für einen beliebigen Vektor v {\displaystyle \mathbf {v} ^{*}} {\displaystyle \mathbf {v} ^{*}} des Dualraums gibt es folgende Koordinatendarstellung:

v = x i e i {\displaystyle \mathbf {v} ^{*}=x_{i}\cdot \mathbf {e} ^{i}} {\displaystyle \mathbf {v} ^{*}=x_{i}\cdot \mathbf {e} ^{i}}

Die Koordinaten x i {\displaystyle x_{i}} {\displaystyle x_{i}} eines kovarianten Tensors tragen konventionsgemäß einen tiefgestellten Index i.

Die Vektoren des zugehörigen Vektorraumes V sind ebenfalls Tensoren der Stufe 1. Sie werden als kontravariante Tensoren bezeichnet.

v = x i e i {\displaystyle \mathbf {v} =x^{i}\cdot \mathbf {e} _{i}} {\displaystyle \mathbf {v} =x^{i}\cdot \mathbf {e} _{i}}

Die Koordinaten x i {\displaystyle x^{i}} {\displaystyle x^{i}} eines kontravarianten Tensors tragen konventionsgemäß einen hochgestellten Index i {\displaystyle i} {\displaystyle i}.

Die Vektoren v können mit den Vektoren v** des zugehörigen Bidualraumes V** identifiziert werden. Denn es existiert eine Bijektion zwischen den Elementen des Vektorraums V und des zugehörigen Bidualraums V**. Der Bidualraum umfasst die linearen Abbildungen von v* in K, also

v v : V K {\displaystyle \mathbf {v} \cong \mathbf {v} ^{**}:V^{*}\to K} {\displaystyle \mathbf {v} \cong \mathbf {v} ^{**}:V^{*}\to K}

Tensoren der Stufe r+s

Man definiert einen Tensor vom Grad (r, s) als multilineare Abbildung mit r Argumenten v 1 , . . . , v r {\displaystyle v^{1},...,v^{r}} {\displaystyle v^{1},...,v^{r}} und s Argumenten λ 1 , . . . , λ s . {\displaystyle \lambda _{1},...,\lambda _{s}.} {\displaystyle \lambda _{1},...,\lambda _{s}.} Die Argumente v 1 , . . . , v r {\displaystyle v^{1},...,v^{r}} {\displaystyle v^{1},...,v^{r}} sind Elemente eines Vektorraumes V {\displaystyle V} {\displaystyle V} und λ 1 , . . . , λ s {\displaystyle \lambda _{1},...,\lambda _{s}} {\displaystyle \lambda _{1},...,\lambda _{s}} Argumente des zum Vektorraum gehörenden Dualraumes V {\displaystyle V^{*}} {\displaystyle V^{*}}.

Der Tensor hat dann die Form

V × V × × V r -mal × V × V × × V K s -mal {\displaystyle {\begin{matrix}\underbrace {V\times V\times \dots \times V} \\r{\text{-mal}}\end{matrix}}{\begin{matrix}\times \underbrace {V^{*}\times V^{*}\times \dots \times V^{*}} \rightarrow K\\s{\text{-mal}}\end{matrix}}} {\displaystyle {\begin{matrix}\underbrace {V\times V\times \dots \times V} \\r{\text{-mal}}\end{matrix}}{\begin{matrix}\times \underbrace {V^{*}\times V^{*}\times \dots \times V^{*}} \rightarrow K\\s{\text{-mal}}\end{matrix}}}
( v 1 , . . . , v r , λ 1 , . . . , λ s ) T ( v 1 , . . . , v r , λ 1 , . . . , λ s ) {\displaystyle (v^{1},...,v^{r},\lambda _{1},...,\lambda _{s})\rightarrow T(v^{1},...,v^{r},\lambda _{1},...,\lambda _{s})} {\displaystyle (v^{1},...,v^{r},\lambda _{1},...,\lambda _{s})\rightarrow T(v^{1},...,v^{r},\lambda _{1},...,\lambda _{s})}

Die Summe r + s heißt Stufe oder Rang des Tensors.

Je nachdem, ob die Argumente aus einem Vektorraum sind oder aus dessen Dualraum, wird der Tensor als kovariant oder kontravariant bezeichnet. Im obigen Fall liegt ein r-fach kovarianter, s-fach kontravarianter Tensor vor.

Tensoroperationen

In dieser einfachen Form eines Tensors wird das Produkt zweier Tensoren gebildet, indem die beiden Indextupel in der Reihenfolge ihres Auftretens unter Beibehaltung aller hoch- und Tiefstellungen zum Indextupel eines neuen Tensors aneinandergekoppelt werden. Dabei sind die Indizes beider Tensoren als voneinander verschieden zu betrachten und notieren. Die Komponenten des neuen Tensors ergeben als Produkte der Komponenten der alten Tensoren, deren Indexbelegungen die Indexbelegung der Komponente des neuen Tensors ergeben. Zum Beispiel ist das Produkt von Tensoren A i j {\displaystyle A^{i}{}_{j}} {\displaystyle A^{i}{}_{j}} und B i j k {\displaystyle B_{i}{}^{j}{}_{k}} {\displaystyle B_{i}{}^{j}{}_{k}} ein Tensor fünfter Stufe C i j i j k = A i j B i j k {\displaystyle C^{i}{}_{j}{}_{i'}{}^{j'}{}_{k'}=A^{i}{}_{j}\;B_{i}{}^{j}{}_{k}} {\displaystyle C^{i}{}_{j}{}_{i'}{}^{j'}{}_{k'}=A^{i}{}_{j}\;B_{i}{}^{j}{}_{k}}. Dessen Komponente C 2 1 3 2 1 {\displaystyle C^{2}{}_{1}{}_{3}{}^{2}{}_{1}} {\displaystyle C^{2}{}_{1}{}_{3}{}^{2}{}_{1}} ist das Produkt der Komponenten A 2 1 {\displaystyle A^{2}{}_{1}} {\displaystyle A^{2}{}_{1}} und B 3 2 1 {\displaystyle B_{3}{}^{2}{}_{1}} {\displaystyle B_{3}{}^{2}{}_{1}}.

Belegt man zwei Indizes unterschiedlicher Stellung mit demselben Index, so wird nach der Summationskonvention die Summe über alle Belegungen dieses Index gebildet. Diese Operation heißt Verjüngung des Tensors. Es ist also A i i {\displaystyle A^{i}{}_{i}} {\displaystyle A^{i}{}_{i}} ein Skalar, welcher die Summe aller Diagonalelemente einer mit A assoziierten Matrix ist. B i j i {\displaystyle B_{i}{}^{j}{}_{i}} {\displaystyle B_{i}{}^{j}{}_{i}} ist nicht definiert, B i j j {\displaystyle B_{i}{}^{j}{}_{j}} {\displaystyle B_{i}{}^{j}{}_{j}} ein Tensor erster Stufe.

Haben in einem Tensorprodukt die aneinanderliegenden äußeren Enden der Indextupel unterschiedliche Stellung, aber gleiche Indexdimension, so können diese im Produkt gleichgesetzt und damit automatisch heraussummiert werden. Diese Kombination aus Produkt und Verjüngung nennt sich Überschieben der Tensoren. Beispielsweise kann A i j {\displaystyle A^{i}{}^{j}} {\displaystyle A^{i}{}^{j}} B i j k {\displaystyle B_{i}{}^{j}{}_{k}} {\displaystyle B_{i}{}^{j}{}_{k}} zu einem Tensor dritter Stufe D i j k = A i j B j j k {\displaystyle D^{i}{}^{j'}{}_{k'}=A^{i}{}^{j},円B_{j}{}^{j'}{}_{k'}} {\displaystyle D^{i}{}^{j'}{}_{k'}=A^{i}{}^{j},円B_{j}{}^{j'}{}_{k'}} überschoben werden. Ein Spezialfall ist das Matrix-Matrix-Produkt C i k = A i j B j k {\displaystyle C^{i}{}_{k}=A^{i}{}_{j},円B^{j}{}_{k}} {\displaystyle C^{i}{}_{k}=A^{i}{}_{j},円B^{j}{}_{k}}. Ein Tensor höherer Stufe kann auch mehrfach mit Vektoren überschoben werden, bis alle Indizes aufgebraucht sind, F = B i j k C k D j E i {\displaystyle F=B_{i}{}^{j}{}_{k}C^{k}D_{j}E^{i}} {\displaystyle F=B_{i}{}^{j}{}_{k}C^{k}D_{j}E^{i}} ist ein Skalar, der sich aus der Auswertung von B als Multilinearform ergibt.

Tensorbegriff der Mathematik

Unterschiedliche Betrachtungsweisen

In der Physik wird „Tensor" oft als Abkürzung für Tensorfeld verwendet. Ein Tensorfeld ist eine Abbildung, die jedem Punkt des Raums (allgemeiner: einer Mannigfaltigkeit) einen Tensor zuordnet; jede physikalische Feldtheorie handelt von Tensorfeldern. Das mag im ersten Moment verwirrend erscheinen. Dahinter verbergen sich nur unterschiedliche Blickrichtungen auf die gleichen Objekte, erläutert am Beispiel von Vektorfeldern:

  • In der mathematischen Physik versteht man unter einem glatten Vektorfeld σ {\displaystyle \sigma } {\displaystyle \sigma } über einer glatten Mannigfaltigkeit M {\displaystyle M} {\displaystyle M} einen Schnitt im Tangentialbündel ( T M , M , π M ) {\displaystyle (TM,M,\pi _{M})} {\displaystyle (TM,M,\pi _{M})}, d.h. eine C {\displaystyle C^{\infty }} {\displaystyle C^{\infty }}-Abbildung
σ : M T M {\displaystyle \sigma :M\to TM} {\displaystyle \sigma :M\to TM}
mit
π M σ = id M {\displaystyle \pi _{M}\circ \sigma =\operatorname {id} _{M}} {\displaystyle \pi _{M}\circ \sigma =\operatorname {id} _{M}}.
Das ist die abstrakte Form von Bewegungsgleichungen erster Ordnung in der Physik. Hier interessiert man sich für die Existenz und Eigenschaften von Lösungen.
  • In der angewandten Mathematik bzw. in den Ingenieurswissenschaften liegt das Augenmerk weniger auf Existenz und speziellen Eigenschaften, sondern auf der Berechnung von Lösungen. An Stelle einer n-dimensionalen glatten Mannigfaltigkeit M {\displaystyle M} {\displaystyle M} und des Tangentialbündels T M {\displaystyle TM} {\displaystyle TM} treten die lokalen Koordinatensysteme.
  • Für die Sicht der multilinearen Algebra beschränkt man sich auf die Strukturen in den einzelnen Fasern T x M {\displaystyle T_{x}M} {\displaystyle T_{x}M}

Welcher Blickwinkel gerade verwendet wird, ergibt sich aus dem Kontext.

Universaldefinition des Tensorprodukts

Als Tensorprodukt der Vektorräume V und W, d.h. als Vektorraum, in welchem die Tensorprodukte von Vektoren aus V und W „leben", wird jeder Vektorraum X (über dem gemeinsamen Skalarenkörper von V und W) bezeichnet, zu dem es eine bilineare Abbildung ϕ : V × W X {\displaystyle \phi :V\times W\to X} {\displaystyle \phi :V\times W\to X} gibt, die die folgende universelle Eigenschaft erfüllt:

Jede weitere bilineare Abbildung B : V × W Y {\displaystyle B:V\times W\to Y} {\displaystyle B:V\times W\to Y} kann auf eindeutiger Weise zu einer linearen Abbildung auf X erweitert werden. Dies heißt exakter, dass es eine einzige lineare Abbildung B ~ : X Y {\displaystyle {\tilde {B}}:X\to Y} {\displaystyle {\tilde {B}}:X\to Y} gibt, so dass für beliebige Paare von Vektoren gilt
B ( v , w ) = B ( ϕ ( v , w ) ) {\displaystyle B(v,w)=B'(\phi (v,w))} {\displaystyle B(v,w)=B'(\phi (v,w))}.

Gibt es einen solchen Vektorraum, so ist er (bis auf Isomorphie) eindeutig. Es wird X = V W {\displaystyle X=V\otimes W} {\displaystyle X=V\otimes W} und ϕ ( v , w ) = v w {\displaystyle \phi (v,w)=v\otimes w} {\displaystyle \phi (v,w)=v\otimes w} notiert. Die universelle Eigenschaft kann also als B ( v , w ) = B ( v w ) {\displaystyle B(v,w)=B'(v\otimes w)} {\displaystyle B(v,w)=B'(v\otimes w)} geschrieben werden. Zur Konstruktion solcher Produkträume sei auf den Artikel Tensorprodukt verwiesen.

Tensor als Element des Tensorproduktes

In der Mathematik sind Tensoren Elemente von Tensorprodukten.

Es sei K {\displaystyle K} {\displaystyle K} ein Körper, also beispielsweise K = R {\displaystyle K=\mathbb {R} } {\displaystyle K=\mathbb {R} } oder K = C {\displaystyle K=\mathbb {C} } {\displaystyle K=\mathbb {C} }, und es seien V 1 , V 2 , , V s {\displaystyle V_{1},V_{2},\ldots ,V_{s}} {\displaystyle V_{1},V_{2},\ldots ,V_{s}} Vektorräume über K {\displaystyle K} {\displaystyle K}.

Das Tensorprodukt V 1 V s {\displaystyle V_{1}\otimes \cdots \otimes V_{s}} {\displaystyle V_{1}\otimes \cdots \otimes V_{s}} von V 1 , , V s {\displaystyle V_{1},\ldots ,V_{s}} {\displaystyle V_{1},\ldots ,V_{s}} ist ein K {\displaystyle K} {\displaystyle K}-Vektorraum, dessen Elemente Summen von Symbolen der Form

v 1 v s , v i V i , {\displaystyle v_{1}\otimes \cdots \otimes v_{s},\quad v_{i}\in V_{i},} {\displaystyle v_{1}\otimes \cdots \otimes v_{s},\quad v_{i}\in V_{i},}

sind. Dabei gelten für diese Symbole die folgenden Rechenregeln:

  • v 1 ( v i + v i ) v s = ( v 1 v i v s ) + ( v 1 v i v s ) {\displaystyle v_{1}\otimes \cdots \otimes (v_{i}'+v_{i}'')\otimes \cdots \otimes v_{s}=(v_{1}\otimes \cdots \otimes v_{i}'\otimes \cdots \otimes v_{s})+(v_{1}\otimes \cdots \otimes v_{i}''\otimes \cdots \otimes v_{s})} {\displaystyle v_{1}\otimes \cdots \otimes (v_{i}'+v_{i}'')\otimes \cdots \otimes v_{s}=(v_{1}\otimes \cdots \otimes v_{i}'\otimes \cdots \otimes v_{s})+(v_{1}\otimes \cdots \otimes v_{i}''\otimes \cdots \otimes v_{s})}
  • v 1 ( λ v i ) v s = λ ( v 1 v i v s ) , λ K {\displaystyle v_{1}\otimes \cdots \otimes (\lambda v_{i})\otimes \cdots \otimes v_{s}=\lambda (v_{1}\otimes \cdots \otimes v_{i}\otimes \cdots \otimes v_{s}),\quad \lambda \in K} {\displaystyle v_{1}\otimes \cdots \otimes (\lambda v_{i})\otimes \cdots \otimes v_{s}=\lambda (v_{1}\otimes \cdots \otimes v_{i}\otimes \cdots \otimes v_{s}),\quad \lambda \in K}

Die Tensoren der Form v 1 v s {\displaystyle v_{1}\otimes \cdots \otimes v_{s}} {\displaystyle v_{1}\otimes \cdots \otimes v_{s}} heißen elementar. Jeder Tensor lässt sich als Summe von elementaren Tensoren schreiben, aber diese Darstellung ist außer in trivialen Fällen nicht eindeutig, wie man an der ersten der beiden Rechenregeln sieht.

Ist { e i ( 1 ) , , e i ( d i ) } {\displaystyle \{e_{i}^{(1)},\ldots ,e_{i}^{(d_{i})}\}} {\displaystyle \{e_{i}^{(1)},\ldots ,e_{i}^{(d_{i})}\}} eine Basis von V i {\displaystyle V_{i}} {\displaystyle V_{i}} (für i = 1 , , s {\displaystyle i=1,\ldots ,s} {\displaystyle i=1,\ldots ,s}; d i = dim V i {\displaystyle d_{i}=\dim V_{i}} {\displaystyle d_{i}=\dim V_{i}}), so ist

{ e 1 ( j 1 ) e s ( j s ) 1 i s , 1 j i d i } {\displaystyle \{e_{1}^{(j_{1})}\otimes \cdots \otimes e_{s}^{(j_{s})}\mid 1\leq i\leq s,1\leq j_{i}\leq d_{i}\}} {\displaystyle \{e_{1}^{(j_{1})}\otimes \cdots \otimes e_{s}^{(j_{s})}\mid 1\leq i\leq s,1\leq j_{i}\leq d_{i}\}}

eine Basis von V 1 V s . {\displaystyle V_{1}\otimes \cdots \otimes V_{s}.} {\displaystyle V_{1}\otimes \cdots \otimes V_{s}.} Die Dimension von V 1 V s {\displaystyle V_{1}\otimes \cdots \otimes V_{s}} {\displaystyle V_{1}\otimes \cdots \otimes V_{s}} ist also das Produkt der Dimensionen der einzelnen Vektorräume V 1 , , V s . {\displaystyle V_{1},\ldots ,V_{s}.} {\displaystyle V_{1},\ldots ,V_{s}.}

Tensorprodukte und Multilinearformen

Der Dualraum von V 1 V s {\displaystyle V_{1}\otimes \cdots \otimes V_{s}} {\displaystyle V_{1}\otimes \cdots \otimes V_{s}} kann mit dem Raum der s {\displaystyle s} {\displaystyle s}-Multilinearformen

V 1 × × V s K {\displaystyle V_{1}\times \cdots \times V_{s}\to K} {\displaystyle V_{1}\times \cdots \times V_{s}\to K}

identifiziert werden:

  • Ist λ : V 1 V s K {\displaystyle \lambda \colon V_{1}\otimes \cdots \otimes V_{s}\to K} {\displaystyle \lambda \colon V_{1}\otimes \cdots \otimes V_{s}\to K} eine Linearform auf V 1 V s , {\displaystyle V_{1}\otimes \cdots \otimes V_{s},} {\displaystyle V_{1}\otimes \cdots \otimes V_{s},} so ist die entsprechende Multilinearform
( v 1 , , v s ) λ ( v 1 v s ) . {\displaystyle (v_{1},\ldots ,v_{s})\mapsto \lambda (v_{1}\otimes \cdots \otimes v_{s}).} {\displaystyle (v_{1},\ldots ,v_{s})\mapsto \lambda (v_{1}\otimes \cdots \otimes v_{s}).}
  • Ist μ : V 1 × × V s K {\displaystyle \mu \colon V_{1}\times \cdots \times V_{s}\to K} {\displaystyle \mu \colon V_{1}\times \cdots \times V_{s}\to K} eine s {\displaystyle s} {\displaystyle s}-Multilinearform, so ist die entsprechende Linearform auf V 1 V s {\displaystyle V_{1}\otimes \cdots \otimes V_{s}} {\displaystyle V_{1}\otimes \cdots \otimes V_{s}} definiert durch
j = 1 k v 1 ( j ) v s ( j ) j = 1 k μ ( v 1 ( j ) , , v s ( j ) ) . {\displaystyle \sum _{j=1}^{k}v_{1}^{(j)}\otimes \cdots \otimes v_{s}^{(j)}\mapsto \sum _{j=1}^{k}\mu (v_{1}^{(j)},\ldots ,v_{s}^{(j)}).} {\displaystyle \sum _{j=1}^{k}v_{1}^{(j)}\otimes \cdots \otimes v_{s}^{(j)}\mapsto \sum _{j=1}^{k}\mu (v_{1}^{(j)},\ldots ,v_{s}^{(j)}).}

Sind alle betrachteten Vektorräume endlichdimensional, so kann man

( V 1 V s ) u n d V 1 V s {\displaystyle (V_{1}\otimes \cdots \otimes V_{s})^{*}\quad \mathrm {und} \quad V_{1}^{*}\otimes \cdots \otimes V_{s}^{*}} {\displaystyle (V_{1}\otimes \cdots \otimes V_{s})^{*}\quad \mathrm {und} \quad V_{1}^{*}\otimes \cdots \otimes V_{s}^{*}}

miteinander identifizieren, d.h. Elemente von V 1 V s {\displaystyle V_{1}^{*}\otimes \cdots \otimes V_{s}^{*}} {\displaystyle V_{1}^{*}\otimes \cdots \otimes V_{s}^{*}} entsprechen s {\displaystyle s} {\displaystyle s}-Multilinearformen auf V 1 × × V s . {\displaystyle V_{1}\times \cdots \times V_{s}.} {\displaystyle V_{1}\times \cdots \times V_{s}.}

(r,s)-Tensoren

Es sei V {\displaystyle V} {\displaystyle V} ein fester endlichdimensionaler Vektorraum über K {\displaystyle K} {\displaystyle K}.

Elemente von

( V ) r V s = V V V V r s {\displaystyle {\begin{matrix}(V^{*})^{\otimes r}\otimes V^{\otimes s}&=&\underbrace {V^{*}\otimes \cdots \otimes V^{*}} &\otimes &\underbrace {V\otimes \cdots \otimes V} \\&&r&&s\end{matrix}}} {\displaystyle {\begin{matrix}(V^{*})^{\otimes r}\otimes V^{\otimes s}&=&\underbrace {V^{*}\otimes \cdots \otimes V^{*}} &\otimes &\underbrace {V\otimes \cdots \otimes V} \\&&r&&s\end{matrix}}}

heißen (r,s)-Tensoren oder Tensoren der Stufe (r,s).

Beispielsweise sind (0,0)-Tensoren Skalare, (0,1)-Tensoren Elemente des Vektorraums und (1,0)-Tensoren Linearformen auf V {\displaystyle V} {\displaystyle V}. (1,1)-Tensoren können mit Endomorphismen von V und (2,0)-Tensoren mit Bilinearformen auf V identifiziert werden (siehe unten).

Für (r,s)-Tensoren gibt es drei wichtige Konstruktionen:

  • Einem (r,s)-Tensor kann auf verschiedene Weisen ein ( r 1 , s 1 ) {\displaystyle (r-1,s-1)} {\displaystyle (r-1,s-1)}-Tensor gebildet werden: Für 1 i r {\displaystyle 1\leq i\leq r} {\displaystyle 1\leq i\leq r} und 1 j s {\displaystyle 1\leq j\leq s} {\displaystyle 1\leq j\leq s} wird einem Tensor
λ 1 λ i λ r v 1 v j v s {\displaystyle \lambda _{1}\otimes \cdots \otimes \lambda _{i}\otimes \cdots \otimes \lambda _{r}\otimes v_{1}\otimes \cdots \otimes v_{j}\otimes \cdots \otimes v_{s}} {\displaystyle \lambda _{1}\otimes \cdots \otimes \lambda _{i}\otimes \cdots \otimes \lambda _{r}\otimes v_{1}\otimes \cdots \otimes v_{j}\otimes \cdots \otimes v_{s}}
der Tensor
λ i ( v j ) ( λ 1 λ i 1 λ i + 1 λ r v 1 v j 1 v j + 1 v s ) {\displaystyle \lambda _{i}(v_{j})\cdot (\lambda _{1}\otimes \cdots \otimes \lambda _{i-1}\otimes \lambda _{i+1}\otimes \cdots \otimes \lambda _{r}\otimes v_{1}\otimes \cdots \otimes v_{j-1}\otimes v_{j+1}\otimes \cdots \otimes v_{s})} {\displaystyle \lambda _{i}(v_{j})\cdot (\lambda _{1}\otimes \cdots \otimes \lambda _{i-1}\otimes \lambda _{i+1}\otimes \cdots \otimes \lambda _{r}\otimes v_{1}\otimes \cdots \otimes v_{j-1}\otimes v_{j+1}\otimes \cdots \otimes v_{s})}
zugeordnet. Dieser Vorgang heißt Kontraktion oder Spurbildung: im Falle von (1,1)-Tensoren entspricht die Abbildung
V V K {\displaystyle V^{*}\otimes V\to K} {\displaystyle V^{*}\otimes V\to K}
unter der Identifizierung V V = E n d V {\displaystyle V^{*}\otimes V=\mathrm {End} ,円V} {\displaystyle V^{*}\otimes V=\mathrm {End} ,円V} der Spur eines Endomorphismus.
  • Aus einem ( r 1 , s 1 ) {\displaystyle (r_{1},s_{1})} {\displaystyle (r_{1},s_{1})}-Tensor und einem ( r 2 , s 2 ) {\displaystyle (r_{2},s_{2})} {\displaystyle (r_{2},s_{2})}-Tensor kann ein ( r 1 + r 2 , s 1 + s 2 ) {\displaystyle (r_{1}+r_{2},s_{1}+s_{2})} {\displaystyle (r_{1}+r_{2},s_{1}+s_{2})}-Tensor gebildet werden:
( ( V ) r 1 V s 1 ) ( ( V ) r 2 V s 2 ) ( V ) ( r 1 + r 2 ) V ( s 1 + s 2 ) . {\displaystyle ((V^{*})^{\otimes r_{1}}\otimes V^{\otimes s_{1}})\otimes ((V^{*})^{\otimes r_{2}}\otimes V^{\otimes s_{2}})\cong (V^{*})^{\otimes (r_{1}+r_{2})}\otimes V^{\otimes (s_{1}+s_{2})}.} {\displaystyle ((V^{*})^{\otimes r_{1}}\otimes V^{\otimes s_{1}})\otimes ((V^{*})^{\otimes r_{2}}\otimes V^{\otimes s_{2}})\cong (V^{*})^{\otimes (r_{1}+r_{2})}\otimes V^{\otimes (s_{1}+s_{2})}.}
  • Ist auf V {\displaystyle V} {\displaystyle V} ein Skalarprodukt gegeben, so können V {\displaystyle V} {\displaystyle V} und V {\displaystyle V^{*}} {\displaystyle V^{*}} miteinander identifiziert werden, es gibt also Entsprechungen zwischen ( r , s ) {\displaystyle (r,s)} {\displaystyle (r,s)}-Tensoren und ( r + k , s k ) {\displaystyle (r+k,s-k)} {\displaystyle (r+k,s-k)}-Tensoren.
Beispiel

Es sei g {\displaystyle g} {\displaystyle g} ein (2,0)-Tensor und X , Y V {\displaystyle X,Y\in V} {\displaystyle X,Y\in V} zwei Vektoren. Dann ist

g X Y {\displaystyle g\otimes X\otimes Y} {\displaystyle g\otimes X\otimes Y}

ein (2,2)-Tensor, der durch zweimalige Spurbildung ein Element von K {\displaystyle K} {\displaystyle K} liefert. Da alle diese Konstruktionen multilinear sind, definiert g {\displaystyle g} {\displaystyle g} also eine Bilinearform

V × V K {\displaystyle V\times V\to K} {\displaystyle V\times V\to K}.

(2,0)-Tensoren können also mit Bilinearformen identifiziert werden.

Beispiele

  • Die Determinante von ( n × n ) {\displaystyle (n\times n)} {\displaystyle (n\times n)}-Matrizen, aufgefasst als alternierende Multilinearform der Spalten, ist ein (n,0)-Tensor.
  • Lineare Abbildungen V W {\displaystyle V\to W} {\displaystyle V\to W} zwischen endlichdimensionalen Vektorräumen können als Elemente von V W {\displaystyle V^{*}\otimes W} {\displaystyle V^{*}\otimes W} aufgefasst werden.

In der Differentialgeometrie spielen Tensorfelder eine wichtige Rolle: Ist M {\displaystyle M} {\displaystyle M} eine differenzierbare Mannigfaltigkeit, so ist ein Tensorfeld auf M {\displaystyle M} {\displaystyle M} eine Abbildung, die jedem Punkt einen Tensor zuordnet. Meist werden auch noch gewisse Differenzierbarkeitseigenschaften gefordert.

Beispiele sind:

  • Differentialformen vom Grad k {\displaystyle k} {\displaystyle k}, insbesondere das totale Differential einer Funktion im Fall k = 1 {\displaystyle k=1} {\displaystyle k=1}, sind Schnitte von k T M ( T M ) k . {\displaystyle {\bigwedge }\!{}^{k},円\mathrm {T} ^{*}M\subseteq (\mathrm {T} ^{*}M)^{\otimes k}.} {\displaystyle {\bigwedge }\!{}^{k},円\mathrm {T} ^{*}M\subseteq (\mathrm {T} ^{*}M)^{\otimes k}.}
  • Riemannsche Metriken sind (2,0)-Tensoren.
  • Der riemannsche Krümmungstensor ist ein (3,1)-Tensor, der mithilfe der riemannschen Metrik als (4,0)-Tensor aufgefasst werden kann.

Siehe auch: Tensoralgebra, äußere Algebra, symmetrische Algebra.

Ko- und Kontravarianz als Eigenschaften von Abbildungen

Sei V {\displaystyle V} {\displaystyle V} ein fester K {\displaystyle K} {\displaystyle K}-Vektorraum und W {\displaystyle W} {\displaystyle W} ein beliebiger weiterer K {\displaystyle K} {\displaystyle K}-Vektorraum. Eine lineare Abbildung f : W V {\displaystyle f:W\to V} {\displaystyle f:W\to V} heißt kovariant bezüglich V {\displaystyle V} {\displaystyle V}, eine lineare Abbildung g : V W {\displaystyle g:V\to W} {\displaystyle g:V\to W} heißt kontravariant in V {\displaystyle V} {\displaystyle V}.

Eine Quelle der Verwirrung über diese Begriffe ist, dass in der Physik und älteren Lehrbüchern davon gesprochen wird, dass sich die Matrizen dieser Abbildungen ko- bzw. kontravariant unter Basiswechsel transformieren. Jedoch kehren sich dabei die Zuordnungen um - eine kovariante Abbildung hat eine Matrix, die kontravariant bzgl. Basiswechsel ist und umgekehrt.

Grundlegende Beispiele:

  • Ein Vektor v V {\displaystyle \mathbf {v} \in V} {\displaystyle \mathbf {v} \in V} ist mit der Abbildung i : K V {\displaystyle i:K\to V} {\displaystyle i:K\to V} zu identifizieren, welche K {\displaystyle K} {\displaystyle K} auf die Gerade x x v {\displaystyle x\mapsto x\cdot \mathbf {v} } {\displaystyle x\mapsto x\cdot \mathbf {v} } mit der Richtung v {\displaystyle \mathbf {v} } {\displaystyle \mathbf {v} } abbildet. Ein Vektor ist also kovariant.
  • Ein Kovektor v V {\displaystyle \mathbf {v} ^{*}\in V^{*}} {\displaystyle \mathbf {v} ^{*}\in V^{*}} ist als lineares Funktional v : V K {\displaystyle \mathbf {v} ^{*}:V\to K} {\displaystyle \mathbf {v} ^{*}:V\to K} definiert, somit ist er kontravariant in V {\displaystyle V} {\displaystyle V}.

Tensorprodukte eines Vektorraums und Symmetrie

Man kann das Tensorprodukt T 2 V := V V {\displaystyle {\mathcal {T}}^{2}V:=V\otimes V} {\displaystyle {\mathcal {T}}^{2}V:=V\otimes V} eines Vektorraumes V mit sich selbst bilden. Ohne weiteres Wissen über den Vektorraum kann ein Automorphismus des Tensorprodukts definiert werden, der darin besteht, in den reinen Produkten a b {\displaystyle a\otimes b} {\displaystyle a\otimes b} die Faktoren zu vertauschen,

Π 12 ( a b ) := b a {\displaystyle \Pi _{12}(a\otimes b):=b\otimes a} {\displaystyle \Pi _{12}(a\otimes b):=b\otimes a}.

Das Quadrat dieser Abbildung ist die Identität, woraus folgt, dass es Eigenvektoren zum Eigenwert 1 und zum Eigenwert -1 gibt.

  • Ein w U V {\displaystyle w\in U\otimes V} {\displaystyle w\in U\otimes V}, welches Π 12 ( w ) := w {\displaystyle \Pi _{12}(w):=w} {\displaystyle \Pi _{12}(w):=w} erfüllt, heißt symmetrisch. Beispiele sind die Elemente
w = a b := 1 2 ( a b + b a ) {\displaystyle w=a\otimes b:={\frac {1}{2}}(a\otimes b+b\otimes a)} {\displaystyle w=a\otimes b:={\frac {1}{2}}(a\otimes b+b\otimes a)}.
Die Menge aller symmetrischen Tensoren der Stufe 2 wird mit S 2 V = ( 1 + Π 12 ) ( V V ) {\displaystyle {\mathcal {S}}^{2}V=(1+\Pi _{12})(V\otimes V)} {\displaystyle {\mathcal {S}}^{2}V=(1+\Pi _{12})(V\otimes V)} bezeichnet.
  • Ein w U V {\displaystyle w\in U\otimes V} {\displaystyle w\in U\otimes V}, welches Π 12 ( w ) := w {\displaystyle \Pi _{12}(w):=-w} {\displaystyle \Pi _{12}(w):=-w} erfüllt, heißt antisymmetrisch oder alternierend. Beispiele sind die Elemente
w = a b := 1 2 ( a b b a ) {\displaystyle w=a\wedge b:={\frac {1}{2}}(a\otimes b-b\otimes a)} {\displaystyle w=a\wedge b:={\frac {1}{2}}(a\otimes b-b\otimes a)}.
Die Menge aller antisymmetrischen Tensoren der Stufe 2 wird mit Λ 2 V := ( 1 Π 12 ) ( V V ) {\displaystyle \Lambda ^{2}V:=(1-\Pi _{12})(V\otimes V)} {\displaystyle \Lambda ^{2}V:=(1-\Pi _{12})(V\otimes V)} bezeichnet.

Mittels T n + 1 V := V T n V {\displaystyle {\mathcal {T}}^{n+1}V:=V\otimes {\mathcal {T}}^{n}V} {\displaystyle {\mathcal {T}}^{n+1}V:=V\otimes {\mathcal {T}}^{n}V} können Tensorpotenzen von V beliebiger Stufe gebildet werden. Entsprechend können weitere paarweise Vertauschungen definiert werden. Nur sind diese nicht mehr voneinander unabhängig. So lässt sich jede Vertauschung der Stellen j und k auf Vertauschungen mit der ersten Stelle zurückführen.

Π j k = Π 1 j Π 1 k Π 1 j {\displaystyle \Pi _{jk}=\Pi _{1j}\circ \Pi _{1k}\circ \Pi _{1j}} {\displaystyle \Pi _{jk}=\Pi _{1j}\circ \Pi _{1k}\circ \Pi _{1j}}

Anwendungen

Tensoren und Tensorfelder werden in verschiedenen Teilgebieten der Mathematik und Physik angewandt. Diese Anwendungen sind von sehr unterschiedlicher Komplexität:

  • in einigen Fällen genügt es, sich Tensoren als eine Verallgemeinerung von Skalar, Vektor, Matrix vorzustellen; in anderen Fällen steht die Invarianz eines Tensors unter Koordinatentransformationen im Vordergrund;
  • in einigen Fällen ist es erforderlich, zwischen ko- und kontravarianten Tensoren zu unterscheiden (mehr dazu unten), in anderen Fällen ist diese Unterscheidung irrelevant.

Man muss deshalb damit rechnen, dass Tensoren in verschiedenen Anwendungsgebieten verschieden definiert, verschieden notiert und verschieden gehandhabt werden.

Wichtige Anwendungsgebiete umfassen:

f ( x + h ) f ( x ) + f ( x ) ( h ) + 1 2 ! f ( x ) ( h , h ) + 1 3 ! f ( x ) ( h , h , h ) + {\displaystyle f(x+h)\approx f(x)+f'(x)(h)+{\frac {1}{2!}}f''(x)(h,h)+{\frac {1}{3!}}f'''(x)(h,h,h)+\ldots } {\displaystyle f(x+h)\approx f(x)+f'(x)(h)+{\frac {1}{2!}}f''(x)(h,h)+{\frac {1}{3!}}f'''(x)(h,h,h)+\ldots }
auftretenden multilinearen Ableitungen f ( n ) ( x ) {\displaystyle f^{(n)}(x)} {\displaystyle f^{(n)}(x)} kann man als symmetrische, rein kovariante Tensoren aufsteigender Stufe auffassen.

Siehe auch

Literatur

  • Theodor Bröcker: Lineare Algebra und Analytische Geometrie. Birkhäuser, Basel 2004, ISBN 3-7643-2178-4, Kap. VII: Tensorrechnung.
  • R. Abraham, J.E. Marsden, T. Ratiu: Manifolds, Tensor Analysis, and Applications. Second Edition, Springer-Verlag, Berlin, ISBN 3-540-96790-7.
  • Theodore Frankel: The Geometry of Physics -- An Introduction. Cambridge University Press 1997, Cambridge, ISBN 0-521-38334-X
Abgerufen von „https://de.wikipedia.org/w/index.php?title=Tensor&oldid=44742243"