Rechenregeln:
Das Tensorprodukt ist bilinear.
Assoziativgesetz:
(
a
⊗
b
)
⊗
c
=
a
⊗
(
b
⊗
c
)
{\displaystyle (a\otimes b)\otimes c=a\otimes (b\otimes c)}
.
Tensorprodukt zweier Vektoren:
v
⊗
w
=
(
∑
i
v
i
b
i
)
⊗
(
∑
j
w
j
b
j
)
=
∑
i
j
v
i
w
j
b
i
⊗
b
j
.
{\displaystyle v\otimes w={\Big (}\sum _{i}v^{i}b_{i}{\Big )}\otimes {\Big (}\sum _{j}w^{j}b_{j}{\Big )}=\sum _{ij}v^{i}w^{j}b_{i}\otimes b_{j}.}
Alle Rechenregeln gelten analog für Kovektoren:
f
⊗
g
=
(
∑
i
f
i
b
i
)
⊗
(
∑
j
g
i
b
j
)
=
∑
i
j
f
i
g
j
b
i
⊗
b
j
.
{\displaystyle f\otimes g={\Big (}\sum _{i}f_{i}b^{i}{\Big )}\otimes {\Big (}\sum _{j}g_{i}b^{j}{\Big )}=\sum _{ij}f_{i}g_{j}b^{i}\otimes b^{j}.}
Applikation eines Tensors vom Typ (0,2) auf zwei Vektoren:
T
(
v
,
w
)
=
(
∑
i
j
T
i
j
b
i
⊗
b
j
)
(
∑
i
v
i
b
i
,
∑
j
w
j
b
j
)
=
∑
i
j
T
i
j
v
i
w
j
.
{\displaystyle T(v,w)={\Big (}\sum _{ij}T_{ij}b^{i}\otimes b^{j}{\Big )}{\Big (}\sum _{i}v^{i}b_{i},\sum _{j}w^{j}b_{j}{\Big )}=\sum _{ij}T_{ij}v^{i}w^{j}.}
Applikation eines Tensors vom Typ (0,p ) auf p Vektoren:
T
(
v
1
,
…
,
v
p
)
=
∑
i
1
…
i
p
T
i
1
…
i
p
v
1
i
1
…
v
p
i
p
.
{\displaystyle T(v_{1},\ldots ,v_{p})=\sum _{i_{1}\ldots i_{p}}T_{i_{1}\ldots i_{p}}v_{1}^{i_{1}}\ldots v_{p}^{i_{p}}.}
Applikation eines antisymmetrischen Tensors vom Typ (0,2) auf auf zwei Vektoren:
T
(
v
,
w
)
=
∑
i
<
j
T
i
j
(
v
i
w
j
−
v
j
w
i
)
.
{\displaystyle T(v,w)=\sum _{i<j}T_{ij}(v^{i}w^{j}-v^{j}w^{i}).}
Applikation eines antisymmetrischen Tensors vom Typ (0,p ) auf p Vektoren:
T
(
v
1
,
…
,
v
p
)
=
∑
i
1
<
…
<
i
p
T
i
1
…
i
p
∑
σ
∈
S
p
sgn
(
σ
)
v
1
σ
(
i
1
)
…
v
p
σ
(
i
p
)
.
{\displaystyle T(v_{1},\ldots ,v_{p})=\sum _{i_{1}<\ldots <i_{p}}T_{i_{1}\ldots i_{p}}\sum _{\sigma \in S_{p}}\operatorname {sgn}(\sigma )v_{1}^{\sigma (i_{1})}\ldots v_{p}^{\sigma (i_{p})}.}
Äußeres Produkt, Rechenregeln:
Das äußere Produkt ist bilinear.
Assoziativgesetz:
(
a
∧
b
)
∧
c
=
a
∧
(
b
∧
c
)
{\displaystyle (a\wedge b)\wedge c=a\wedge (b\wedge c)}
.
Antikommutativität:
a
∧
b
=
−
b
∧
a
{\displaystyle a\wedge b=-b\wedge a}
für Vektoren
a
,
b
{\displaystyle a,b}
des zugrundeliegenden Vektorraumes.
Wenn
λ
{\displaystyle \lambda }
ein Skalar ist, dann gilt
λ
∧
a
=
a
∧
λ
=
λ
a
{\displaystyle \lambda \wedge a=a\wedge \lambda =\lambda a}
.
Seien
A
,
B
{\displaystyle A,B}
alternierende Tensoren, sei
r
:=
G
r
a
d
(
A
)
{\displaystyle r:=\mathrm {Grad} (A)}
und
s
:=
G
r
a
d
(
B
)
{\displaystyle s:=\mathrm {Grad} (B)}
. Es gilt:
A
∧
B
=
(
−
1
)
r
s
B
∧
A
.
{\displaystyle A\wedge B=(-1)^{rs}B\wedge A.}
Sei
V
{\displaystyle V}
ein endlich-dimensionaler Vektorraum und
(
b
k
)
k
=
1
n
{\displaystyle (b_{k})_{k=1}^{n}}
eine Basis von
V
{\displaystyle V}
.
Für zwei Vektoren
v
=
∑
k
v
k
b
k
{\displaystyle v=\sum \nolimits _{k}v^{k}b_{k}}
und
∑
k
w
k
b
k
{\displaystyle \sum \nolimits _{k}w^{k}b_{k}}
gilt:
v
∧
w
=
∑
i
j
v
i
w
j
b
i
∧
b
j
=
∑
i
<
j
(
v
i
w
j
−
v
j
w
i
)
b
i
∧
b
j
,
{\displaystyle v\wedge w=\sum _{ij}v^{i}w^{j}b_{i}\wedge b_{j}=\sum _{i<j}(v^{i}w^{j}-v^{j}w^{i})b_{i}\wedge b_{j},}
v
∧
w
=
v
⊗
w
−
w
⊗
v
=
∑
i
j
(
v
i
w
j
−
v
j
w
i
)
b
i
⊗
b
j
=
∑
i
j
v
i
w
j
(
b
i
⊗
b
j
−
b
j
⊗
b
i
)
.
{\displaystyle v\wedge w=v\otimes w-w\otimes v=\sum _{ij}(v^{i}w^{j}-v^{j}w^{i})b_{i}\otimes b_{j}=\sum _{ij}v^{i}w^{j}(b_{i}\otimes b_{j}-b_{j}\otimes b_{i}).}
Sei
T
{\displaystyle T}
ein alternierender Tensor. Wegen
T
i
j
=
−
T
j
i
{\displaystyle T^{ij}=-T^{ji}}
gilt:
T
=
∑
i
j
T
i
j
b
i
⊗
b
j
=
1
2
∑
i
j
T
i
j
(
b
i
⊗
b
j
−
b
j
⊗
b
i
)
=
1
2
∑
i
j
T
i
j
b
i
∧
b
j
=
∑
i
<
j
T
i
j
b
i
∧
b
j
.
{\displaystyle T=\sum _{ij}T^{ij}b_{i}\otimes b_{j}={\frac {1}{2}}\sum _{ij}T^{ij}(b_{i}\otimes b_{j}-b_{j}\otimes b_{i})={\frac {1}{2}}\sum _{ij}T^{ij}b_{i}\wedge b_{j}=\sum _{i<j}T^{ij}b_{i}\wedge b_{j}.}
Sei
T
{\displaystyle T}
ein alternierender Tensor. Wegen
T
i
1
…
i
p
=
sgn
(
σ
)
T
σ
(
i
1
)
…
σ
(
i
p
)
{\displaystyle T^{i_{1}\ldots i_{p}}=\operatorname {sgn}(\sigma )T^{\sigma (i_{1})\ldots \sigma (i_{p})}}
gilt:
T
=
∑
i
1
…
i
p
T
i
1
…
i
p
b
i
1
⊗
…
⊗
b
i
p
=
∑
i
1
…
i
p
T
i
1
…
i
p
A
l
t
p
(
b
i
1
⊗
…
⊗
b
i
p
)
=
1
p
!
∑
i
1
…
i
p
T
i
1
…
i
p
b
i
1
∧
…
∧
b
i
p
=
∑
i
1
<
…
<
i
p
T
i
1
…
i
p
b
i
1
∧
…
∧
b
i
p
.
{\displaystyle {\begin{aligned}T&=\sum _{i_{1}\ldots i_{p}}T^{i_{1}\ldots i_{p}}b_{i_{1}}\otimes \ldots \otimes b_{i_{p}}=\sum _{i_{1}\ldots i_{p}}T^{i_{1}\ldots i_{p}}\mathrm {Alt} _{p}(b_{i_{1}}\otimes \ldots \otimes b_{i_{p}})\\&={\frac {1}{p!}}\sum _{i_{1}\ldots i_{p}}T^{i_{1}\ldots i_{p}}b_{i_{1}}\wedge \ldots \wedge b_{i_{p}}=\sum _{i_{1}<\ldots <i_{p}}T^{i_{1}\ldots i_{p}}b_{i_{1}}\wedge \ldots \wedge b_{i_{p}}.\end{aligned}}}
Alle Rechenregeln gelten auch für Kovektoren (dargestellt als Linearkombinationen bezüglich der Dualbasis) bzw. Tensoren vom Typ (0,p ) anstelle des Typs (p ,0).
Applikation eines alternierenden Tensors
T
∈
⋀
2
(
V
∗
)
{\displaystyle \textstyle T\in \bigwedge ^{2}(V^{*})}
auf zwei Vektoren:
T
(
v
,
w
)
=
(
∑
i
<
j
T
i
j
b
i
∧
b
j
)
(
∑
i
v
i
b
i
,
∑
j
w
j
b
j
)
=
∑
i
<
j
T
i
j
(
v
i
w
j
−
v
j
w
i
)
.
{\displaystyle T(v,w)={\Big (}\sum _{i<j}T_{ij}b^{i}\wedge b^{j}{\Big )}{\Big (}\sum _{i}v^{i}b_{i},\sum _{j}w^{j}b_{j}{\Big )}=\sum _{i<j}T_{ij}(v^{i}w^{j}-v^{j}w^{i}).}
Sind
a
,
b
{\displaystyle a,b}
Tensoren vom Typ (1,0) oder (0,1), so gilt:
A
l
t
2
(
a
⊗
b
)
=
1
2
(
a
⊗
b
−
b
⊗
a
)
,
{\displaystyle \mathrm {Alt} _{2}(a\otimes b)={\frac {1}{2}}(a\otimes b-b\otimes a),}
a
∧
b
=
2
A
l
t
2
(
a
⊗
b
)
.
{\displaystyle a\wedge b=2\mathrm {Alt} _{2}(a\otimes b).}
Ist
a
k
{\displaystyle a_{k}}
für jedes
k
{\displaystyle k}
ein Tensor erster Stufe, so gilt:
A
l
t
p
(
a
1
⊗
…
⊗
a
p
)
=
1
p
!
∑
σ
∈
S
p
s
g
n
(
σ
)
a
σ
(
1
)
⊗
…
⊗
a
σ
(
p
)
,
{\displaystyle \mathrm {Alt} _{p}(a_{1}\otimes \ldots \otimes a_{p})={\frac {1}{p!}}\sum _{\sigma \in S_{p}}\mathrm {sgn} (\sigma )a_{\sigma (1)}\otimes \ldots \otimes a_{\sigma (p)},}
a
1
∧
…
∧
a
p
=
p
!
A
l
t
p
(
a
1
⊗
…
⊗
a
p
)
.
{\displaystyle a_{1}\wedge \ldots \wedge a_{p}=p!\mathrm {Alt} _{p}(a_{1}\otimes \ldots \otimes a_{p}).}
Seien
T
,
S
{\displaystyle T,S}
Tensoren der Stufe
p
{\displaystyle p}
.
Sei
λ
{\displaystyle \lambda }
ein Skalar. Es gilt:
A
l
t
p
(
T
+
S
)
=
A
l
t
p
(
T
)
+
A
l
t
p
(
S
)
,
{\displaystyle \mathrm {Alt} _{p}(T+S)=\mathrm {Alt} _{p}(T)+\mathrm {Alt} _{p}(S),}
A
l
t
p
(
λ
T
)
=
λ
A
l
t
p
(
T
)
.
{\displaystyle \mathrm {Alt} _{p}(\lambda T)=\lambda \mathrm {Alt} _{p}(T).}
Seien
A
,
B
{\displaystyle A,B}
alternierende Tensoren, sei
r
:=
G
r
a
d
(
A
)
{\displaystyle r:=\mathrm {Grad} (A)}
und
s
:=
G
r
a
d
(
B
)
{\displaystyle s:=\mathrm {Grad} (B)}
. Es gilt:
A
∧
B
=
(
r
+
s
)
!
r
!
s
!
A
l
t
r
+
s
(
A
⊗
B
)
.
{\displaystyle A\wedge B={\frac {(r+s)!}{r!s!}}\mathrm {Alt} _{r+s}(A\otimes B).}
Seien
A
k
{\displaystyle A_{k}}
ein alternierender Tensor, sei
r
k
:=
G
r
a
d
(
A
k
)
{\displaystyle r_{k}:=\mathrm {Grad} (A_{k})}
. Es gilt:
A
1
∧
…
∧
A
p
=
(
r
1
+
…
+
r
p
)
!
r
1
!
…
r
p
!
A
l
t
r
1
+
…
+
r
p
(
A
1
⊗
…
⊗
A
p
)
.
{\displaystyle A_{1}\wedge \ldots \wedge A_{p}={\frac {(r_{1}+\ldots +r_{p})!}{r_{1}!\ldots r_{p}!}}\mathrm {Alt} _{r_{1}+\ldots +r_{p}}(A_{1}\otimes \ldots \otimes A_{p}).}
Wenn
A
{\displaystyle A}
ein alternierender Tensor vom Grad
r
{\displaystyle r}
ist, dann ist
A
l
t
r
(
A
)
=
A
{\displaystyle \mathrm {Alt} _{r}(A)=A}
.