New Immissions/Updates:
boundless - educate - edutalab - empatico - es-ebooks - es16 - fr16 - fsfiles - hesperian - solidaria - wikipediaforschools
- wikipediaforschoolses - wikipediaforschoolsfr - wikipediaforschoolspt - worldmap -

See also: Liber Liber - Libro Parlato - Liber Musica  - Manuzio -  Liber Liber ISO Files - Alphabetical Order - Multivolume ZIP Complete Archive - PDF Files - OGG Music Files -

PROJECT GUTENBERG HTML: Volume I - Volume II - Volume III - Volume IV - Volume V - Volume VI - Volume VII - Volume VIII - Volume IX

Ascolta ""Volevo solo fare un audiolibro"" su Spreaker.
CLASSICISTRANIERI HOME PAGE - YOUTUBE CHANNEL
Privacy Policy Cookie Policy Terms and Conditions
Tensor - Wikipedia

Tensor

aus Wikipedia, der freien Enzyklopädie

Ein Tensor ist in der Mathematik ein geometrisches, unter Koordinatentransformationen invariantes Objekt, das aus Vektoren und/oder linearen Abbildungen aufgebaut ist.

Es gibt eine Hierarchie komplexer werdender Tensoren. So sind z. B. Tensoren 0. Stufe Skalare, Tensoren 1. Stufe Vektoren und Tensoren 2. Stufe quadratische Matrizen.

Das mathematische Teilgebiet Lineare Algebra handelt von Tensoren und wird ohne klare Bedeutungsunterscheidung auch Tensorrechnung, Tensoralgebra oder multilineare Algebra genannt. Die Tensoranalysis behandelt Differentialoperationen auf Tensorfeldern über Mannigfaltigkeiten.

Inhaltsverzeichnis

[Bearbeiten] Unterschiedliche Betrachtungsweisen

In der Physik wird „Tensor“ oft als Abkürzung für Tensorfeld verwendet. Ein Tensorfeld ist eine Abbildung, die jedem Punkt des Raums (allgemeiner: einer Mannigfaltigkeit) einen Tensor zuordnet; jede physikalische Feldtheorie handelt von Tensorfeldern. Das mag im ersten Moment verwirrend erscheinen. Dahinter verbergen sich nur unterschiedliche Blickrichtungen auf die gleichen Objekte, erläutert am Beispiel von Vektorfeldern:

  • In der mathematischen Physik versteht man unter einem glatten Vektorfeld σ über einer glatten Mannigfaltigkeit M einen Schnitt im Tangentialbündel (TM,MM), d.h. eine C^\infty-Abbildung
\sigma: M \to TM
mit
\pi_M\circ\sigma = \mathop{id}_M.
Das ist die abstrakte Form von Bewegungsgleichungen erster Ordnung in der Physik. Hier interessiert man sich für die Existenz und Eigenschaften von Lösungen.
  • In der angewandten Mathematik bzw. in den Ingenieurswissenschaften liegt das Augenmerk weniger auf Existenz und speziellen Eigenschaften, sondern auf der Berechnung von Lösungen. An Stelle einer n-dimensionalen glatten Mannigfaltigkeit M und des Tangentialbündels TM treten die lokalen Koordinatensysteme.
  • Für die Sicht der multilinearen Algebra beschränkt man sich auf die Strukturen in den einzelnen Fasern TxM

Welcher Blickwinkel gerade verwendet wird, ergibt sich aus dem Kontext.

[Bearbeiten] Wort- und Begriffsgeschichte

Das Wort Tensor (lat.: tendo ich spanne) wurde in den 1840er Jahren von Hamilton in die Mathematik eingeführt; er bezeichnete damit den Absolutbetrag seiner Quaternionen, also noch keinen Tensor im modernen Sinn.

Maxwell scheint den Spannungstensor, den er aus der Elastizitätstheorie in die Elektrodynamik übertrug, selbst noch nicht so genannt zu haben.

In seiner modernen Bedeutung, als Verallgemeinerung von Skalar, Vektor, Matrix, wird das Wort Tensor erstmals von Woldemar Voigt in seinem Buch Die fundamentalen physikalischen Eigenschaften der Krystalle in elementarer Darstellung (Leipzig, 1898) eingeführt.

Unter dem Titel absolute Differentialgeometrie entwickelten Gregorio Ricci-Curbastro und dessen Schüler Tullio Levi-Civita um 1890 die Tensorrechnung auf Riemannschen Mannigfaltigkeiten; einem größeren Fachpublikum machten sie ihre Ergebnisse 1900 mit dem Buch Calcolo differenziale assoluto zugänglich, das bald in andere Sprachen übersetzt wurde, und aus dem sich Einstein unter großer Mühe die mathematischen Grundlagen aneignete, die er zur Formulierung der Allgemeinen Relativitätstheorie benötigte. Einstein selbst prägte 1916 den Begriff Tensoranalysis und trug mit seiner Theorie maßgeblich dazu bei, den Tensorkalkül bekannt zu machen; er führte überdies die Einsteinsche Summationskonvention ein, nach der über doppelt auftretende Indizes stillschweigend summiert wird.

[Bearbeiten] Tensorbegriff der Physik

[Bearbeiten] Einführung

Viele physikalische Gesetze sind Proportionalitäten, beispielsweise bewirkt eine an einem Körper angreifende Kraft eine Geschwindigkeitsänderung, die der Größe der Kraft proportional ist:

\vec F=m\cdot\dot{\vec v}.

Diese Gleichung besagt zudem, dass die Richtung der Kraft auch die Richtung der Beschleunigung angibt. Derselbe Proportionalitätsfaktor, die Masse m, taucht auch in der Formel für die Bewegungsenergie

E_\mathrm{kin}=\frac12\cdot m\cdot v^2

auf.

Es gibt jedoch Zusammenhänge, die sich nicht in dieser Weise beschreiben lassen, weil die zugehörigen Proportionalitätsfaktoren von der Richtung der beteiligten vektoriellen Größen abhängen. Ein Beispiel liefern Drehbewegungen: Greift an einem rotierenden Körper ein Drehmoment an, so bewirkt es eine Änderung der Winkelgeschwindigkeit, und eine Verdoppelung des Drehmomentes verdoppelt auch diesen Effekt. Es gilt also

M=J\cdot\left|\dot{\vec\omega}\right|

mit einem Proportionalitätsfaktor J, der je nach Richtung von \dot{\vec\omega} unterschiedlich sein kann. Auch müssen die Richtungen von \vec M und \dot{\vec\omega} nicht übereinstimmen. Die Rotationsenergie lässt sich ebenfalls mit einem richtungsabhängigen Faktor J als

E_\mathrm{rot}=\frac12\cdot J\cdot\omega^2

darstellen.

Diese Richtungsabhängigkeit bedeutet, dass das Trägheitsmoment J eine tensorielle Größe ist, genauer ein Tensor zweiter Stufe, der Trägheitstensor. „Stufe zwei“ besagt dabei, dass zwei Vektoren involviert sind, in der ersten Formel \vec M und \dot{\vec\omega}, in der zweiten zweimal der Vektor \vec\omega. Tensoren der zweiten Stufe können also grob gesagt aus Vektoren wieder Vektoren machen oder aus Paaren von Vektoren Zahlen. Mathematisch entspricht das einer linearen Abbildung bzw. einer Bilinearform, die sich beide durch eine 3\times3-Matrix beschreiben lassen. Rechnerisch ist ein Tensor zweiter Stufe also nichts anderes als eine (quadratische) Matrix, und die obigen Formeln nehmen die Form

\vec M=J\cdot\dot{\vec\omega} bzw. E_\mathrm{rot}=\frac12\cdot\vec\omega^T\cdot J\cdot\vec\omega

mit der entsprechenden Matrix J an.

[Bearbeiten] Tensoren als Verallgemeinerung von Skalar, Vektor und Matrix

Für manche Anwendungen, zum Beispiel in der Elastizitätstheorie und fast überall in den Ingenieurwissenschaften, ist es vollkommen ausreichend, sich Tensoren als eine Fortsetzung der Reihe Skalar, Vektor, Matrix vorzustellen. Dabei unterscheidet man Tensoren verschiedener Stufen (auch Rang genannt):

  • Ein Tensor nullter Stufe ist eine Zahl, auch Skalar genannt.
  • Ein Tensor erster Stufe wird durch einen Spaltenvektor dargestellt. Im n-dimensionalen Raum hat ein solcher Tensor genau n Koeffizienten.
  • Ein Tensor zweiter Stufe wird durch eine quadratische Matrix dargestellt, also ein Zahlenschema, in dem jeder der n2 Koeffizienten des Tensors durch zwei Indizes bezeichnet ist (Beispiele: Arbeitsblatt in einem Tabellenkalkulationsprogramm; zweidimensionales Pixelbild)
  • Ein Tensor dritter Stufe ließe sich durch eine würfelförmige Anordnung seiner n3 Koeffizienten darstellen, die durch je drei Indizes "adressiert" werden (Arbeitsmappe in der Tabellenkalkulation; Videosequenz [Pixelbilder mit zusätzlicher Zeitkoordinate]).
  • Ein Tensor m-ter Stufe hat dementsprechend nm Koeffizienten, die mit Hilfe von m Indizes auseinander gehalten werden.

[Bearbeiten] Tensoren im physikalischen Sinne als Multilinearformen

Tensoren T sind multilineare Abbildungen in einen Körper K:

T:V_1^{}\times V_2^{}\times\dots\times V_s^{}\to K.

V_1, \dots\ , V_s sind jeweils Vektorräume über dem gemeinsamen Körper K. Mit s wird die Stufe des Tensors bezeichnet.

Multilineare Abbildungen sind genau dann Tensoren, wenn jeder der Vektorräume V_1, \dots\ , V_s entweder V * oder V ist.

V ist ein beliebiger Vektorraum über dem Körper K. V * ist der sogenannte duale Vektorraum. Dieser umfasst die Menge der linearen Abbildungen vom Vektorraum V in den Körper K.


Beispielsweise sei der folgende Tensor angegeben:

T:V\times V^*\to K

Den beispielhaften Tensor erhält man, indem man für V1 = V und V2 = V * in die allgemeingültige Definition für multilineare Abbildung einsetzt.

Die Vektorräume V und V * haben dieselbe Dimension d. Das kann man folgendermaßen ausdrücken:

dim(V) = dim(V * ) = d

mit der Vektorraumdimension d \in \mathbb{N}.

[Bearbeiten] Tensoren im physikalischen Sinne als "indizierte Größen"

Ein Tensor n-ter Stufe ist eine n-fach indizierte Größe T_{i_1,i_2,...,i_n}. Es wird weiter gefordert, dass der Tensor ein bestimmtes Transformationsverhalten hat. Wird das Koordinatensystem mit einer Drehmatrix ai,j gedreht, so lautet der Tensor in den neuen Koordinaten:

T'_{i_1,i_2,...,i_n}=\sum_{j_1=1}^3 ... \sum_{j_n=1}^3 a_{i_1,j_1} ... a_{i_n,j_n} T_{j_1,j_2,...,j_n}.

Diese Definition ist äquivalent mit der obigen. Weitere Informationen über das Thema findet man unter Indexdarstellungen der Relativitätstheorie.

[Bearbeiten] Beispiele von wichtigen Tensoren in der Physik

Das Kronecker-Delta δ ist ein Tensor zweiter Stufe. Es ist ein Element von \mathbb R^3 \otimes  \mathbb R^3; es ist also eine lineare Abbildung \delta : \mathbb R^3 \times  \mathbb R^3 \to  \mathbb R. Lineare Abbildungen sind durch die Wirkung auf die Basisvektoren eindeutig bestimmt. So ist das Kronecker-Delta eindeutig durch

\delta(e_i,e_j)=\delta_{ij} = \left\{\begin{matrix}  1 & \mbox{falls } i=j \\  0 & \mbox{falls } i \neq j \end{matrix}\right.

bestimmt.

Das Levi-Civita-Symbol \varepsilon_{i j k}, das zur Berechnung des Kreuzprodukts zwischen Vektoren gebraucht wird, ist ein Tensor dritter Stufe. Es gilt \varepsilon : \mathbb R^3 \times  \mathbb R^3 \times  \mathbb R^3 \to  \mathbb R. Man schreibt \varepsilon(e_i,e_j,e_k) = \varepsilon_{i j k}.

Der Energie-Impuls-Tensor Tαβ und der elektromagnetische Feldstärketensor Fαβ sind Tensoren zweiter Stufe auf der vierdimensionalen Basis der Raumzeit.

[Bearbeiten] Basis und Koordinaten von Vektoren

Für ein tieferes Verständnis von Tensoren ist es unerlässlich, zu rekapitulieren, was eigentlich ein Vektor ist: nämlich

  • ein geometrisches Objekt,
  • das einem Vektorraum angehört,
  • das durch Koordinaten bezüglich einer Basis dargestellt werden kann,
  • das aber nicht von einer bestimmten Basis abhängt, sondern unter Basiswechsel (= Koordinatentransformation) invariant bleibt.


Wir betrachten einen Vektor v aus einem n-dimensionalen Vektorraum V. Bezüglich einer gegebenen Basis {e1, ..., en} ist v durch seine Koordinaten v1, ..., v n gegeben:

v = v1e1 + ... + v nen.

Das Hochstellen der Koordinatenindizes ist in einigen, aber nicht allen Anwendungen der Tensorrechnung üblich; es steht im Zusammenhang mit der Unterscheidung von ko- und kontravarianten Größen; mehr dazu unten.

[Bearbeiten] Summationskonvention

Im weiteren Verlauf dieses Artikels wird die von Einstein eingeführte Summationskonvention verwendet: über jeden Index, der auf einer Seite einer Gleichung zweimal vorkommt, wird automatisch summiert. Statt

v= v^1 e_1 + ... + v^n e_n = \sum_{i=1}^n v^i e_i

gilt also ab sofort

v = viei.

[Bearbeiten] Kovariante und Kontravariante Tensoren

Die Vektoren des dualen Vektorraums V * sind Tensoren der Stufe 1. Sie werden als kovariante Tensoren bezeichnet.

\mathbf{v}^*:V \to K

Die Basisvektoren des dualen Vektorraums V * seien gegeben durch:

B^*=(\mathbf{e}^1,\dots\ ,\mathbf{e}^d)

Für einen beliebigen Vektor \mathbf{v}^* des Dualraums gibt es folgende Koordinatendarstellung:

\mathbf{v}^* = x_i \cdot \mathbf{e}^i

Die Koordinaten xi eines kovarianten Tensors tragen konventionsgemäß einen tiefgestellten Index i.

Jeder Basisvektor stellt einen Tensor der Stufe 1 dar. Für die Basistensoren der Stufe 1 gelten die Gleichungen

\mathbf{e}^i \left( \mathbf{e}_j \right)=\delta_{ij} für alle i, j Element von {1, \dots\ , d} ,

wobei das sogenannte Kronecker-Delta δi,j für i = j den Wert 1, sonst den Wert 0 hat.

Die Vektoren \mathbf{v}^{**} des bidualen Vektorraums V * * sind Tensoren der Stufe 1. Sie werden als kontravariante Tensoren bezeichnet.

\mathbf{v}^{**}:V^*\to K

Die Abbildung \mathbf{\iota}_v, die jedem Element \mathbf{v}^* des Dualraums \mathbf{v}^*(\mathbf{v}) zuordnet, ist Element des Bidualraums. Denn \mathbf{v}^*(\mathbf{v}) ist Element des zugrundeliegenden Körpers K.

\mathbf{v}^* \mapsto \mathbf{v}^*(\mathbf{v})
\mathbf{\iota}_v\left( \mathbf{v}^* \right):=\mathbf{v}^*(\mathbf{v}),

Jedem Vektor \mathbf{v} kann somit genau ein Bidualvektor \mathbf{\iota}_v zugeordnet werden:

\mathbf{v} \mapsto \mathbf{\iota}_v

Es kann gezeigt werden, dass diese Zuordnung eine bijektive Abbildung zwischen dem Vektorraum V und dem Bidualvektorraum V * * darstellt. Die Elemente des Bidualraums V * * werden deshalb häufig mit den Elementen des Vektorraums V identifiziert, d.h. es wird nicht zwischen den Elementen von V und V * * unterschieden. Die nachfolgende Schreibweise bringt das zum Ausdruck:

\mathbf{v}\left( \mathbf{v}^* \right)  =\mathbf{v}^*\left( \mathbf{v}\right)

Die Koordinaten xi eines kontravarianten Tensors tragen konventionsgemäß einen hochgestellten Index i.

Häufig werden die Koordinaten x eines Vektors mit dem Vektor identifiziert. Die Darstellung des Vektors durch dessen Koordinaten in einer bestimmten Basis wird mit dem Vektor an sich gleichgesetzt. In dieser Sprechweise ist ein "Vektor" mit tiefgestelltem Index kovariant und ein Vektor mit hochgestelltem Index kontravariant.

[Bearbeiten] Tensoren der Stufe r+s

Man definiert einen Tensor vom Grad (r,s) als multilineare Abbildung mit r Argumenten v1,...,vr und s Argumenten λ1,...,λs. Die Argumente v1,...,vr sind Elemente eines Vektorraumes V und λ1,...,λs Argumente des zum Vektorraum gehörenden Dualraumes V * .

Der Tensor hat dann die Form

\begin{matrix} \underbrace{V\times V\times \dots \times V} \\ r\; mal \end{matrix} \begin{matrix} \times \underbrace{V^* \times V^* \times \dots \times V^*} \rightarrow \mathbb{R} \\ s\;mal \end{matrix}
(v^1,...,v^r,\lambda_1,...,\lambda_s) \rightarrow T(v^1,...,v^r,\lambda_1,...,\lambda_s)

Die Summe r + s heißt Stufe oder Rang des Tensors.

Je nachdem, ob die Argumente aus einem Vektorraum sind oder aus dessen Dualraum, wird der Tensor als kontravariant oder kovariant bezeichnet. Im obigen Fall liegt ein r-fach kontravarianter, s-fach kovarianter Tensor vor. In der algebraischen Beschreibung von Tensoren bezeichnet man Vektorräume aufgrund ihrer funktoriellen Eigenschaften. Daher heißt ein im physikalischen Sinne kovarianter Vektor f\in V^* im algebraischen Sinne kontravariant und umgekehrt.

[Bearbeiten] Komponenten eines Tensors

Wir betrachten folgenden Tensor T:

T:V\times V^*\to K

Als Komponenten des Tensors T werden die folgenden Größen bezeichnet:

T{}^i{}_j := T\left(\mathbf{e}_i,\mathbf{e}^j\right)

Die Koordinaten eines Tensors der Stufe 1 sind die Komponenten dieses Tensors.

z.B: Ortsvektor (x^k) = x\left(\mathbf{e}_k\right)

Dieser Vektor ist kontravariant, somit steht der Koordinatenindex oben.


Der Tensor T lässt sich nach den kovarianten und kontravarianten Basistensoren entwickeln, so dass gilt:

T=T{}^i{}_j\, \mathbf{e}_i \otimes \mathbf{e}^j

[Bearbeiten] Tensorprodukt

Das Produkt e^i \otimes e_j zwischen dem kovarianten Tensor ei der Stufe 1 und dem kontravarianten Tensor ej der Stufe 1 ist wiederum ein Tensor der Stufe 2. Ist d die Dimension des Vektorraums V, so gibt es d2 Basistensoren e^i \otimes e_j der Stufe 2.

Die Verknüpfung \otimes ist für jegliche Tensoren vom Rang 1 definiert. Die Verknüpfung ist eine Bilineare Funktion.

Für das Symbol v\otimesw gelten folgende Rechenregeln:

  • (v_1+v_2)\otimes w = v_1\otimes w + v_2\otimes w
  • v\otimes(w_1 + w_2) = v\otimes w_1 + v\otimes w_2
  • (\lambda v)\otimes w = \lambda\cdot(v\otimes w) = v\otimes(\lambda w)    (λ ein Element des Grundkörpers K)

Diese Regeln sehen aus wie Distributivgesetze bzw. Assoziativgesetze; auch daher der Name Tensorprodukt.

Im Allgemeinen gilt jedoch:

v\otimes w\not= w\otimes v

Der Sprachgebrauch hinsichtlich des Begriffs Tensors ist nicht immer einheitlich in der Physik. Häufig wird nicht die multilineare Abbildung T als Tensor bezeichnet, sondern deren Komponenten Tij. Die Komponenten ändern ihre Gestalt, wenn die Basis des Vektorraums V gewechselt wird. Der Tensor T selbst bleibt gleich. Die Abbildung zwischen den neuen und alten Komponenten der Vektoren in V nennt man Koordinatentransformation. Die wohl bekanntesten Koordinatentransformationen sind die Galileitransformation und die Lorentztransformation. Tensoren können durch Skalare (Tensor der Stufe 0), Vektoren (Stufe 1), Matrizen (Stufe 2) dargestellt werden. Die Komponenten dieser Tensoren kann man sich als Zahlentupel vorstellen. Im Sprachgebrauch der Physik werden derartige Zahlentupel Tensoren genannt, wenn sie unter einer Koordinatentransformation ein festgelegtes Verhalten aufweisen.

[Bearbeiten] Basiswechsel und Koordinatentransformationen

Bei einem Basiswechsel im Vektorraum V tritt an die Stelle der bisherigen Basis E :=(\mathbf{e}_1, \dots\ , \mathbf{e}_n) eine neue Basis E' :=(\mathbf{e}_1', \dots\ , \mathbf{e}_n').

Dem Wechsel der Basis entspricht eine bijektive lineare Abbildung a:V \to V, welche jedem alten Basisvektor den neuen zuordnet,

\mathbf{e}_i' = a(\mathbf{e}_i) = \mathbf{e}_j \cdot a_{ji}

(mit Summation über j). Die zweite Gleichheit resultiert daraus, dass wir jeden neuen Basisvektor als Linearkombination in der alten Basis ausdrücken können. Fassen wir die Koeffizienten zusammen, so erhalten wir die Matrix A = (aij) des Basiswechsels.

Ein Vektor \mathbf{v}, der invariant bleiben soll, hat in beiden Basen verschiedene Koordinatendarstellungen:

\mathbf{v} = \mathbf{e}_i \cdot x_i = \mathbf{e}_j' \cdot x_j' = \mathbf{e}_j \cdot a_{ji} \cdot x_i'.

Man liest ab, dass die Koordinatentransformation von xi nach xj' der Vorschrift

x = Ax' beziehungsweise x_j = a_{ji} \cdot x_i'

genügt. Wollen wir also die neuen mittels der alten Koordinaten ausdrücken, so müssen wir die Matrix A invertieren:

x' = A − 1x und in Indizes x_i'=(a^{-1})_{i,j} \cdot x_j.

Man erkennt, dass sich Basis und Vektorkoordinaten gegenläufig transformieren:

  • von \mathbf{e}_j nach \mathbf{e}_i' mit der Matrix (aji),
  • von xj nach xi' dagegen mit der inversen Matrix \left((a^{-1})_{ij}\right).


In der physikalischen Literatur wird oft das Beschriebene mit der Beschreibung gleichgesetzt, besonders in der Teilchenphysik. So wird ein Tensor mit seiner Koordinatendarstellung gleichgesetzt. Ein Tensor, dessen Koordinaten kontravariant transformieren, wird dann als kontravarianter Tensor bezeichnet, obwohl das beschriebene Objekt invariant bleibt. Vektoren werden demnach als kontravariante Tensoren erster Stufe bezeichnet, obwohl nur ihre Koordinatendarstellung es ist, als geometrische Objekte sind sie ja invariant.

[Bearbeiten] Linearformen (1-Formen) als kovariante Tensoren erster Stufe

Eine Linearform ist eine lineare Abbildung aus einem Vektorraum in den zugrundeliegenden Skalarkörper. Der Vektorraum aller Linearformen über einem Vektorraum V ist dessen Dualraum V * .

Wenn eine bestimmte Basis \mathbf{e}_1, \dots\ ,\mathbf{e}_n von V gegeben ist, dann kann man in kanonischer Weise eine Basis \mathbf{e}^1, \dots\ ,\mathbf{e}^n von V * wählen, so dass gilt:

\mathbf{e}^i(\mathbf{e}_j) = \delta_{i,j} (wobei das Kronecker-Delta δi,j für i = j den Wert 1, sonst den Wert 0 hat).

Eine Linearform

\mathbf{f} = f_i \cdot \mathbf{e}^i,

auf einen Vektor \mathbf{v} angewandt, liefert dann

\mathbf{f}(\mathbf{v}) = f_i \cdot \mathbf{e}^i (v^j \cdot \mathbf{e}_j) = f_i \cdot v^j \cdot \mathbf{e}^i  (\mathbf{e}_j) = f_i \cdot v^j \cdot \delta_{i,j} = f_i \cdot v^i.

Damit die Beziehungen \mathbf{e}^i(\mathbf{e}_j) = \delta_{i,j} und \mathbf{f}(\mathbf{v})=f_i \cdot v^i unabhängig von der Wahl bestimmter Basen gelten, ist zu fordern:

Bei einem Basiswechsel im Vektorraum V transformieren

  • die Basisvektoren \mathbf{e}^i des Dualraums V * kontravariant, und
  • die Koeffizienten fi einer Linearform f kovariant,

wie wir es in der Notation durch Hoch- beziehungsweise Tiefstellen der Indizes schon vorweggenommen haben.

Eine Linearform, die diese Transformationseigenschaften aufweist, heißt 1-Form oder kovarianter Tensor erster Stufe oder kovarianter Vektor.

[Bearbeiten] Matrizen und Tensorprodukte

Wir können einer beliebigen quadratischen Matrix B ein invariantes Objekt, nämlich einen Skalar, zuordnen, indem wir mit zwei Koordinatenvektoren x und y das Produkt

x^t \cdot B \cdot y=b_{ij} \cdot x^i \cdot y^j bilden, wobei der Zeilenvektor xt den transponierten Spaltenvektor x bezeichnet.

Drücken wir es in den von den Koordinaten beschriebenen invarianten Vektoren \mathbf{v} = \mathbf{E} \cdot x und \mathbf{w} = \mathbf{E} \cdot y aus, können wir das invariante Objekt ablesen, welches B zuzuordnen ist:

x^t \cdot B \cdot y=(\mathbf E^{-1}v)^tB\mathbf E^{-1}w=b_{ij}\cdot e^i(v) \cdot e^j(w).

Wir erhalten also eine Bilinearform b:V \times V \to K, man schreibt sie als

b=b_{ij} \cdot e^i\otimes e^j

[Bearbeiten] Verhalten von Tensorkomponenten unter Koordinatentransformation

Für die Koordinaten bzw. Komponenten (Ti) eines kontravarianten Tensors der Stufe 1 gilt:

\bar{T}^i = T^r\frac{\partial \bar{x}^i}{\partial x^r}.

Für die Koordinaten bzw. Komponenten (Ti) eines kovarianten Tensors der Stufe 1 gilt:

\bar{T}_i = T_r\frac{\partial x^r}{\partial \bar{x}^i}.


Wobei \bar{x}^i=\frac{\partial \bar{x}^i}{\partial x^r}x^r eine beliebige Koordinatentransformation darstellt.


Für einen beliebigen Tensor höherer Stufe transformieren sich die Komponenten auf folgende Weise:

\bar{T}^{i_1 \cdots i_p}_{j_1 \cdots j_q} =  T^{r_1 \cdots r_p}_{s_1 \cdots s_q} \; \frac{\partial \bar{x}^{i_1}}{\partial x^{r_1}} \dots \frac{\partial \bar{x}^{i_p}}{\partial x^{r_p}} \; \frac{\partial x^{s_1}}{\partial \bar{x}^{j_1}} \dots \frac{\partial x^{s_q}}{\partial \bar{x}^{j_q}}.

Es ist nochmals zu betonen, dass der eigentliche Tensor T invariant unter Koordinatentransformation ist. In einigen Lehrbüchern werden jedoch die Komponenten T^i_j eines Tensors als "Tensor" bezeichnet. Als "Tensor" wird dann jegliche inidizierte Größe angesehen, die sich unter Koordinatentransformationen wie oben dargestellt verhält. Das Transformationsverhalten ist damit konstitutiv für den Tensorcharakter.


Für Anwendungen in der Statistik, speziell für multivariate Verfahren, wird das Tensorprodukt von Spaltenvektoren und diese transformierende Matrizen benötigt. Für diesen Zweck wird das Kronecker-Produkt von Matrizen eingesetzt. Diesem liegt zugrunde, dass aus einem Multiindex durch alphabetische Anordnung ein einfacher Index erzeugt wird. Wenn beispielsweise das Produkt eines zwei- und eines dreidimensionalen Vektors gebildet wird, so wird dem Indexpaar (i,j) der einfache Index 3i+j-3 zugeordnet, d.h.

a\otimes b:=\begin{pmatrix}a_1b\\a_2b\end{pmatrix} :=(a_1b_1,a_1b_2,a_1b_3,\;a_2b_1,a_2b_2, a_2b_3)^t.

Im Kronecker-Produkt zweier Matrizen wird dieses Verfahren in beiden Dimensionen separat angewandt.

[Bearbeiten] Tensorbegriff der Mathematik

In der Mathematik sind Tensoren Elemente von Tensorprodukten.

Es sei K ein Körper, also beispielsweise K=\mathbb R oder K=\mathbb C, und es seien V_1,V_2,\ldots,V_s Vektorräume über K.

Das Tensorprodukt V_1 \otimes \cdots \otimes V_s von V_1,\ldots,V_s ist ein K-Vektorraum, dessen Elemente Summen von Symbolen der Form

v_1\otimes\cdots\otimes v_s,\quad v_i\in V_i,

sind. Dabei gelten für diese Symbole die folgenden Rechenregeln:

  • v_1\otimes\cdots\otimes(v_i'+v_i'')\otimes\cdots\otimes v_s=(v_1\otimes\cdots\otimes v_i'\otimes\cdots\otimes v_s)+(v_1\otimes\cdots\otimes v_i''\otimes\cdots\otimes v_s)
  • v_1\otimes\cdots\otimes(\lambda v_i)\otimes\cdots\otimes v_s =\lambda(v_1\otimes\cdots\otimes v_i\otimes\cdots\otimes v_s),\quad\lambda\in K

Die Tensoren der Form v_1\otimes\cdots\otimes v_s heißen elementar. Jeder Tensor lässt sich als Summe von elementaren Tensoren schreiben, aber diese Darstellung ist außer in trivialen Fällen nicht eindeutig, wie man an der ersten der beiden Rechenregeln sieht.

Ist \{e_i^{(1)},\ldots,e_i^{(d_i)}\} eine Basis von Vi (für i=1,\ldots,s; d_i=\dim V_i), so ist

\{e_1^{(j_1)}\otimes\cdots\otimes e_s^{(j_s)}\mid 1\leq i\leq s, 1\leq j_i\leq d_i\}

eine Basis von V_1\otimes\cdots\otimes V_s. Die Dimension von V_1\otimes\cdots\otimes V_s ist also das Produkt der Dimensionen der einzelnen Vektorräume V_1,\ldots,V_s.

[Bearbeiten] Tensorprodukte und Multilinearformen

Der Dualraum von V_1\otimes\cdots\otimes V_s kann mit dem Raum der s-Multilinearformen

V_1\times\cdots\times V_s\to K

identifiziert werden:

  • Ist \lambda\colon V_1\otimes\cdots\otimes V_s\to K eine Linearform auf V_1\otimes\cdots\otimes V_s, so ist die entsprechende Multilinearform
(v_1,\ldots,v_s)\mapsto\lambda(v_1\otimes\cdots\otimes v_s).
  • Ist \mu\colon V_1\times\cdots\times V_s\to K eine s-Multilinearform, so ist die entsprechende Linearform auf V_1\otimes\cdots\otimes V_s definiert durch
\sum_{j=1}^kv_1^{(j)}\otimes\cdots\otimes v_s^{(j)}\mapsto\sum_{j=1}^k\mu(v_1^{(j)},\ldots,v_s^{(j)}).

Sind alle betrachteten Vektorräume endlichdimensional, so kann man

(V_1\otimes\cdots\otimes V_s)^*\quad\mathrm{und}\quad V_1^*\otimes\cdots\otimes V_s^*

miteinander identifizieren, d.h. Elemente von V_1^*\otimes\cdots\otimes V_s^* entsprechen s-Multilinearformen auf V_1\times\cdots\times V_s.

[Bearbeiten] (r,s)-Tensoren

Es sei V ein fester endlichdimensionaler Vektorraum über K.

Elemente von

\begin{matrix}(V^*)^{\otimes r}\otimes V^{\otimes s} &=& \underbrace{V^*\otimes\cdots\otimes V^*}&\otimes&\underbrace{V\otimes\cdots\otimes V}\\&& r && s\end{matrix}

heißen (r,s)-Tensoren oder Tensoren der Stufe (r,s).

Beispielsweise sind (0,0)-Tensoren Skalare, (0,1)-Tensoren Elemente des Vektorraums und (1,0)-Tensoren Linearformen auf V. (1,1)-Tensoren können mit Endomorphismen von V und (2,0)-Tensoren mit Bilinearformen auf V identifiziert werden (siehe unten).

Für (r,s)-Tensoren gibt es drei wichtige Konstruktionen:

  • Einem (r,s)-Tensor kann auf verschiedene Weisen ein (r − 1,s − 1)-Tensor gebildet werden: Für 1\leq i\leq r und 1\leq j\leq s wird einem Tensor
\lambda_1\otimes\cdots\otimes\lambda_i\otimes\cdots\otimes\lambda_r\otimes v_1\otimes\cdots\otimes v_j\otimes\cdots\otimes v_s
der Tensor
\lambda_i(v_j)\cdot(\lambda_1\otimes\cdots\otimes\lambda_{i-1} \otimes\lambda_{i+1}\otimes\cdots\otimes\lambda_r\otimes v_1\otimes\cdots\otimes v_{j-1}\otimes v_{j+1}\otimes\cdots\otimes v_s)
zugeordnet. Dieser Vorgang heißt Kontraktion oder Spurbildung: im Falle von (1,1)-Tensoren entspricht die Abbildung
V^*\otimes V\to K
unter der Identifizierung V^*\otimes V=\mathrm{End}\,V der Spur eines Endomorphismus.
  • Aus einem (r1,s1)-Tensor und einem (r2,s2)-Tensor kann ein (r1 + r2,s1 + s2)-Tensor gebildet werden:
((V^*)^{\otimes r_1}\otimes V^{\otimes s_1})\otimes((V^*)^{\otimes r_2}\otimes V^{\otimes s_2})\cong(V^*)^{\otimes(r_1+r_2)}\otimes V^{\otimes(s_1+s_2)}.
  • Ist auf V ein Skalarprodukt gegeben, so können V und V * miteinander identifiziert werden, es gibt also Entsprechungen zwischen (r,s)-Tensoren und (r + k,sk)-Tensoren.
Beispiel

Es sei g ein (2,0)-Tensor und X,Y\in V zwei Vektoren. Dann ist

g\otimes X\otimes Y

ein (2,2)-Tensor, der durch zweimalige Spurbildung ein Element von K liefert. Da alle diese Konstruktionen multilinear sind, definiert g also eine Bilinearform

V\times V\to K.

(2,0)-Tensoren können also mit Bilinearformen identifiziert werden.

[Bearbeiten] Beispiele

  • Die Determinante von (n\times n)-Matrizen, aufgefasst als alternierende Multilinearform der Spalten, ist ein (n,0)-Tensor.
  • Lineare Abbildungen V\to W zwischen endlichdimensionalen Vektorräumen können als Elemente von V^*\otimes W aufgefasst werden.

In der Differentialgeometrie spielen Tensorfelder eine wichtige Rolle: Ist M eine differenzierbare Mannigfaltigkeit, so ist ein Tensorfeld auf M eine Abbildung, die jedem Punkt einen Tensor zuordnet. Meist werden auch noch gewisse Differenzierbarkeitseigenschaften gefordert.

Beispiele sind:

Siehe auch: Tensoralgebra, äußere Algebra, symmetrische Algebra.

[Bearbeiten] Ko- und Kontravarianz als Eigenschaften von Abbildungen

Sei V ein fester K-Vektorraum und W ein beliebiger weiterer K-Vektorraum. Eine lineare Abbildung f:W \to V heißt kovariant bezüglich V, eine lineare Abbildung g:V \to W heißt kontravariant in V.

Eine Quelle der Verwirrung über diese Begriffe ist, dass in der Physik und älteren Lehrbüchern davon gesprochen wird, dass sich die Matrizen dieser Abbildungen ko- bzw. kontravariant unter Basiswechsel transformieren. Jedoch kehren sich dabei die Zuordnungen um - eine kovariante Abbildung hat eine Matrix, die kontravariant bzgl. Basiswechsel ist und umgekehrt.

Grundlegende Beispiele:

  • Ein Vektor \mathbf{v} \in V ist mit der Abbildung i:K \to V zu identifizieren, welche K auf die Gerade x \mapsto x\cdot \mathbf{v} mit der Richtung \mathbf{v} abbildet. Ein Vektor ist also kovariant.
  • Ein Kovektor \mathbf{v}^* \in V^* ist als lineares Funktional \mathbf{v}^*:V \to K definiert, somit ist er kontravariant in V.

[Bearbeiten] Tensorprodukte eines Vektorraums und Symmetrie

Man kann das Tensorprodukt \mathcal T^2V:=V\otimes V eines Vektorraumes V mit sich selbst bilden. Ohne weiteres Wissen über den Vektorraum kann ein Automorphismus des Tensorprodukts definiert werden, der darin besteht, in den reinen Produkten a\otimes b die Faktoren zu vertauschen,

\Pi_{12}(a\otimes b):=b\otimes a.

Das Quadrat dieser Abbildung ist die Identität, woraus folgt, dass es Eigenvektoren zum Eigenwert 1 und zum Eigenwert -1 gibt.

  • Ein w\in U\otimes V, welches Π12(w): = w erfüllt, heißt symmetrisch. Beispiele sind die Elemente
w=a\otimes b:=\frac12(a\otimes b+b\otimes a).
Die Menge aller symmetrischen Tensoren der Stufe 2 wird mit \mathcal S^2V=(1+\Pi_{12})(V\otimes V) bezeichnet.
  • Ein w\in U\otimes V, welches Π12(w): = − w erfüllt, heißt antisymmetrisch oder alternierend. Beispiele sind die Elemente
w=a\wedge b:=\frac12(a\otimes b-b\otimes a).
Die Menge aller antisymmetrischen Tensoren der Stufe 2 wird mit \Lambda^2V:=(1-\Pi_{12})(V\otimes V) bezeichnet.

Mittels \mathcal T^{n+1}V:=V\otimes \mathcal T^nV können Tensorpotenzen von V beliebiger Stufe gebildet werden. Entsprechend können weitere paarweise Vertauschungen definiert werden. Nur sind diese nicht mehr voneinander unabhängig. So lässt sich jede Vertauschung der Stellen j und k auf Vertauschungen mit der ersten Stelle zurückführen.

\Pi_{jk}=\Pi_{1j}\circ\Pi_{1k}\circ\Pi_{1j}

[Bearbeiten] Anwendungen

Tensoren und Tensorfelder werden in verschiedenen Teilgebieten der Mathematik und Physik angewandt. Diese Anwendungen sind von sehr unterschiedlicher Komplexität:

  • in einigen Fällen genügt es, sich Tensoren als eine Verallgemeinerung von Skalar, Vektor, Matrix vorzustellen; in anderen Fällen steht die Invarianz eines Tensors unter Koordinatentransformationen im Vordergrund;
  • in einigen Fällen ist es erforderlich, zwischen ko- und kontravarianten Tensoren zu unterscheiden (mehr dazu unten), in anderen Fällen ist diese Unterscheidung irrelevant.

Man muss deshalb damit rechnen, dass Tensoren in verschiedenen Anwendungsgebieten verschieden definiert, verschieden notiert und verschieden gehandhabt werden.

Wichtige Anwendungsgebiete umfassen:

f(x+h)\approx f(x)+f'(x)(h)+\frac1{2!} f''(x)(h,h)+\frac1{3!} f'''(x)(h, h, h)+\ldots
auftretenden multilinearen Ableitungen f(n)(x) kann man als symmetrische, rein kovariante Tensoren aufsteigender Stufe auffassen.

[Bearbeiten] Siehe auch

[Bearbeiten] Literatur

  • Theodor Bröcker: Lineare Algebra und Analytische Geometrie. Birkhäuser, Basel 2004, ISBN 3764321784, Kap. VII: Tensorrechnung.

[Bearbeiten] Weblinks

Static Wikipedia (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2007 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu -

Static Wikipedia 2006 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu

Static Wikipedia February 2008 (no images)

aa - ab - af - ak - als - am - an - ang - ar - arc - as - ast - av - ay - az - ba - bar - bat_smg - bcl - be - be_x_old - bg - bh - bi - bm - bn - bo - bpy - br - bs - bug - bxr - ca - cbk_zam - cdo - ce - ceb - ch - cho - chr - chy - co - cr - crh - cs - csb - cu - cv - cy - da - de - diq - dsb - dv - dz - ee - el - eml - en - eo - es - et - eu - ext - fa - ff - fi - fiu_vro - fj - fo - fr - frp - fur - fy - ga - gan - gd - gl - glk - gn - got - gu - gv - ha - hak - haw - he - hi - hif - ho - hr - hsb - ht - hu - hy - hz - ia - id - ie - ig - ii - ik - ilo - io - is - it - iu - ja - jbo - jv - ka - kaa - kab - kg - ki - kj - kk - kl - km - kn - ko - kr - ks - ksh - ku - kv - kw - ky - la - lad - lb - lbe - lg - li - lij - lmo - ln - lo - lt - lv - map_bms - mdf - mg - mh - mi - mk - ml - mn - mo - mr - mt - mus - my - myv - mzn - na - nah - nap - nds - nds_nl - ne - new - ng - nl - nn - no - nov - nrm - nv - ny - oc - om - or - os - pa - pag - pam - pap - pdc - pi - pih - pl - pms - ps - pt - qu - quality - rm - rmy - rn - ro - roa_rup - roa_tara - ru - rw - sa - sah - sc - scn - sco - sd - se - sg - sh - si - simple - sk - sl - sm - sn - so - sr - srn - ss - st - stq - su - sv - sw - szl - ta - te - tet - tg - th - ti - tk - tl - tlh - tn - to - tpi - tr - ts - tt - tum - tw - ty - udm - ug - uk - ur - uz - ve - vec - vi - vls - vo - wa - war - wo - wuu - xal - xh - yi - yo - za - zea - zh - zh_classical - zh_min_nan - zh_yue - zu