Es ist klar, dass
U
1
+
U
2
=
s
p
a
n
(
U
1
∪
U
2
)
{\displaystyle U_{1}+U_{2}=span(U_{1}\cup U_{2})}
ist, denn du kannst sehr leicht zeigen, dass
U
1
+
U
2
⊆
s
p
a
n
(
U
1
∪
U
2
)
{\displaystyle U_{1}+U_{2}\subseteq span(U_{1}\cup U_{2})}
und umgekehrt
s
p
a
n
(
U
1
∪
U
2
)
⊆
U
1
+
U
2
{\displaystyle span(U_{1}\cup U_{2})\subseteq U_{1}+U_{2}}
Lösung (Summe von Vektorräumen)
Ist
v
∈
U
1
+
U
2
{\displaystyle v\in U_{1}+U_{2}}
, dann existieren
u
1
∈
U
1
{\displaystyle u_{1}\in U_{1}}
und
u
2
∈
U
2
{\displaystyle u_{2}\in U_{2}}
mit
v
=
u
1
+
u
2
⇒
v
∈
s
p
a
n
(
U
1
∪
U
2
)
{\displaystyle v=u_{1}+u_{2}\,\Rightarrow v\in span(U_{1}\cup U_{2})}
und damit ist
U
1
+
U
2
⊆
s
p
a
n
(
U
1
∪
U
2
)
{\displaystyle U_{1}+U_{2}\subseteq span(U_{1}\cup U_{2})}
Ist umgekehrt
v
∈
s
p
a
n
(
U
1
∪
U
2
)
{\displaystyle v\in span(U_{1}\cup U_{2})}
, dann ist
v
{\displaystyle v}
eine Linearkombination von Vektoren aus
U
1
∪
U
2
{\displaystyle U_{1}\cup U_{2}}
. Diese Linearkombination kann in der Form
v
=
u
1
+
u
2
{\displaystyle v=u_{1}+u_{2}}
geschrieben werden, wobei
u
1
=
∑
i
=
1
k
β
i
a
i
;
β
i
∈
K
;
a
i
∈
U
1
;
k
<
n
{\displaystyle u_{1}=\sum _{i=1}^{k}\beta _{i}a_{i};\,\beta _{i}\in K;\,a_{i}\in U_{1};\,k<n}
und
u
2
=
∑
i
=
1
n
γ
i
b
i
;
γ
i
∈
K
;
b
i
∈
U
2
{\displaystyle u_{2}=\sum _{i={1}}^{n}\gamma _{i}b_{i};\,\gamma _{i}\in K;\,b_{i}\in U_{2}}
jeweils wieder Linearkombinationen von Vektoren aus
U
1
{\displaystyle U_{1}}
bzw. aus
U
2
{\displaystyle U_{2}}
sind.
Da
U
1
,
U
2
{\displaystyle U_{1},\,U_{2}}
Teilräume von
V
{\displaystyle V}
sind, gilt
u
1
∈
U
1
{\displaystyle u_{1}\in U_{1}}
und
u
2
∈
U
2
{\displaystyle u_{2}\in U_{2}}
.
Also gilt
v
=
u
1
+
u
2
∈
U
1
+
U
2
{\displaystyle v=u_{1}+u_{2}\in U_{1}+U_{2}}
und damit ist
s
p
a
n
(
U
1
∪
U
2
)
⊆
U
1
+
U
2
{\displaystyle span(U_{1}\cup U_{2})\subseteq U_{1}+U_{2}}
Damit haben wir insgesamt
U
1
+
U
2
=
s
p
a
n
(
U
1
∪
U
2
)
{\displaystyle U_{1}+U_{2}=span(U_{1}\cup U_{2})}
Seien
U
1
;
U
2
{\displaystyle U_{1};\,U_{2}}
Unterräume des K-Vektorraums
U
{\displaystyle {\mathcal {U}}}
mit
U
=
U
1
+
U
2
{\displaystyle {\mathcal {U}}=U_{1}+U_{2}}
Definition (Direkte Summe von Vektorräumen)
Die Summe der Vektorräume
U
1
+
U
2
{\displaystyle U_{1}+U_{2}}
heißt direkt, wenn
U
1
∩
U
2
=
{
0
}
{\displaystyle U_{1}\cap U_{2}=\{0\}}
ist. Wir notieren die direkte Summe mit
U
1
⊕
U
2
{\displaystyle U_{1}\oplus U_{2}}
Für die direkte Summe der beiden Vektorräume
U
1
;
U
2
{\displaystyle U_{1};\,U_{2}}
sind die folgenden Aussagen äquivalent[ 1] .
Beweis (Bedingungen Summe von Vektorräumen)
1
⇒
2
:
{\displaystyle 1\,\Rightarrow \,2\colon }
Wir nehmen an, es gibt zwei Darstellungen von
u
∈
U
{\displaystyle u\in {\mathcal {U}}}
, also
u
=
u
1
+
u
2
=
u
1
′
+
u
2
′
{\displaystyle u=u_{1}+u_{2}=u'_{1}+u'_{2}}
mit
u
1
;
u
1
′
∈
U
1
;
u
2
;
u
2
′
∈
U
2
{\displaystyle u_{1};\,u'_{1}\in U_{1};\,u_{2};\,u'_{2}\in U_{2}}
Wir müssen also zeigen:
u
1
=
u
1
′
und
u
2
=
u
2
′
{\displaystyle u_{1}=u'_{1}{\text{ und }}u_{2}=u'_{2}}
Wegen
u
1
+
u
2
=
u
1
′
+
u
2
′
⇒
u
1
−
u
1
′
+
u
2
−
u
2
′
=
0
{\displaystyle u_{1}+u_{2}=u'_{1}+u'_{2}\,\Rightarrow u_{1}-u'_{1}+u_{2}-u'_{2}=0}
, da aber
u
1
−
u
1
′
∈
U
1
;
u
2
−
u
2
′
∈
U
2
{\displaystyle u_{1}-u'_{1}\in U_{1};\,u_{2}-u'_{2}\in U_{2}}
muss nach Bedingung 1 gelten
u
1
−
u
1
′
=
0
und
u
2
−
u
2
′
=
0
{\displaystyle u_{1}-u'_{1}=0{\text{ und }}u_{2}-u'_{2}=0}
, damit ist aber
u
1
=
u
1
′
{\displaystyle u_{1}=u'_{1}}
und
u
2
=
u
2
′
{\displaystyle u_{2}=u'_{2}}
2
⇒
3
:
{\displaystyle 2\,\Rightarrow \,3\colon }
Sei
u
∈
U
1
∩
U
2
{\displaystyle u\in U_{1}\cap U_{2}}
, wir müssen zeigen, dass dann
u
=
0
{\displaystyle u=0}
gilt.
Es ist
u
=
u
+
0
{\displaystyle u=u+0}
mit
u
∈
U
1
;
0
∈
U
2
{\displaystyle u\in U_{1};\,0\in U_{2}}
und
u
=
0
+
u
{\displaystyle u=0+u}
mit
0
∈
U
1
;
u
∈
U
2
{\displaystyle 0\in U_{1};\,u\in U_{2}}
Nach Bedingung 2 ist die Darstellung von
u
{\displaystyle u}
eindeutig und damit folgt
u
=
0
{\displaystyle u=0}
3
⇒
1
:
{\displaystyle 3\,\Rightarrow \,1\colon }
Sei
u
1
+
u
2
=
0
{\displaystyle u_{1}+u_{2}=0}
mit
u
1
∈
U
1
;
u
2
∈
U
2
{\displaystyle u_{1}\in U_{1};\,u_{2}\in U_{2}}
; wir müssen nun zeigen
u
1
=
u
2
=
0
{\displaystyle u_{1}=u_{2}=0}
.
Da
u
1
+
u
2
=
0
⇒
u
1
=
−
u
2
∈
U
2
⇒
u
1
∈
U
1
∩
U
2
⇒
u
1
=
0
{\displaystyle u_{1}+u_{2}=0\,\Rightarrow u_{1}=-u_{2}\in U_{2}\,\Rightarrow u_{1}\in U_{1}\cap U_{2}\,\Rightarrow u_{1}=0}
und damit ist auch
u
2
=
0
{\displaystyle u_{2}=0}
Erfüllen zwei Unterräume eines Vektorraums eine der obigen Bedingungen (und damit alle), dann nennt man die Summe
U
1
+
U
2
{\displaystyle U_{1}+U_{2}}
die direkte (innere) Summe und schreibt dafür
U
=
U
1
⊕
U
2
{\displaystyle {\mathcal {U}}=U_{1}\oplus U_{2}}
Seien
V
;
W
{\displaystyle V;\,W}
zwei beliebige K-Vektorräume, dann definieren wir als direkte (äußere) Summe:
V
⊕
W
:
=
{
(
v
,
w
)
|
v
∈
V
;
w
∈
W
}
{\displaystyle V\oplus W\colon =\lbrace (v,w)\,|\,v\in V;\,w\in W\rbrace }
, wobei die Addition und die Skalarmultiplikation komponentenweise durchgeführt wird.
Sei
V
=
R
2
{\displaystyle V=\mathbb {R} ^{2}}
und
U
1
=
{
(
0
,
r
)
|
r
∈
R
}
=
{
0
}
×
R
{\displaystyle U_{1}=\lbrace (0,r)\,|\,r\in \mathbb {R} \rbrace =\{0\}\times \mathbb {R} }
und
U
2
=
{
(
s
,
0
)
|
s
∈
R
}
=
R
×
{
0
}
{\displaystyle U_{2}=\lbrace (s,0)\,|\,s\in \mathbb {R} \rbrace =\mathbb {R} \times \{0\}}
. Dann ist
R
2
=
U
1
⊕
U
2
=
{
(
s
,
r
)
,
|
r
,
s
∈
R
}
{\displaystyle \mathbb {R} ^{2}=U_{1}\oplus U_{2}=\lbrace (s,r),|\,r,s\in \mathbb {R} \rbrace }
die direkte innere Summe, da
U
1
∩
U
2
=
{
(
0
,
0
)
}
=
{
0
R
2
}
{\displaystyle U_{1}\cap U_{2}=\lbrace (0,0)\rbrace =\{0_{\mathbb {R} ^{2}}\}}
.
Sei
V
=
R
{\displaystyle V=\mathbb {R} }
und
W
=
R
{\displaystyle W=\mathbb {R} }
. Dann ist
R
2
=
{
(
v
,
w
)
|
v
,
w
∈
R
}
=
R
⊕
R
{\displaystyle \mathbb {R} ^{2}=\{(v,w)\,|\,v,w\in \mathbb {R} \}=\mathbb {R} \oplus \mathbb {R} }
die direkte äußere Summe. Analog ist
R
n
=
R
⊕
⋯
⊕
R
⏟
n-Summanden
{\displaystyle \mathbb {R} ^{n}=\underbrace {\mathbb {R} \oplus \cdots \oplus \mathbb {R} } _{\text{n-Summanden}}}
eine direkte äußere Summe.
Die Dimensionsformel gibt an, wie sich die Dimension der Summe zweier endlich dimensionaler Untervektorräume
U
1
;
U
2
{\displaystyle U_{1};\,U_{2}}
eines größeren endlich dimensionalen K-Vektorraums
V
{\displaystyle V}
berechnen lässt.[ 2]
Wie kommt man auf den Beweis? (Dimensionsformel)
Wie wir schon im Kapitel Durchschnitt und Vereinigung von Vektorräumen gesehen haben, ist
V
∩
W
{\displaystyle V\cap W}
ein Teilvektorraum von
V
{\displaystyle V}
und von
W
{\displaystyle W}
.
Wir zeigen zunächst dass es eine Basis
B
{\displaystyle {\mathfrak {B}}}
von
V
+
W
{\displaystyle V+W}
gibt derart, dass
{
b
1
,
…
,
b
n
}
{\displaystyle \{b_{1},\ldots ,b_{n}\}}
eine Basis von
V
∩
W
;
{
b
1
,
…
,
b
n
,
v
1
,
…
,
v
k
}
{\displaystyle V\cap W;\,\{b_{1},\ldots ,b_{n},\,v_{1},\ldots ,v_{k}\}}
eine Basis von
V
{\displaystyle V}
und
{
b
1
,
…
,
b
n
,
w
1
,
…
,
w
m
}
{\displaystyle \{b_{1},\ldots ,b_{n},\,w_{1},\ldots ,w_{m}\,\}}
eine Basis von
W
{\displaystyle W}
ist.
B
=
{
b
1
,
…
,
b
n
,
v
1
,
…
,
v
k
,
w
1
,
…
,
w
m
}
{\displaystyle {\mathfrak {B}}=\{b_{1},\ldots ,b_{n},\,v_{1},\ldots ,v_{k},\,w_{1},\ldots ,w_{m}\}}
ist dann eine Basis von
V
+
W
{\displaystyle V+W}
. Es gilt dann
d
i
m
(
V
+
W
)
=
n
+
k
+
m
;
d
i
m
(
V
∩
W
)
=
n
;
d
i
m
V
=
n
+
k
;
d
i
m
W
=
n
+
m
{\displaystyle dim(V+W)=n+k+m;\,dim(V\cap W)=n;\,dimV=n+k;dimW=n+m}
, damit gilt:
d
i
m
(
V
+
W
)
=
d
i
m
V
+
d
i
m
W
−
d
i
m
(
V
∩
W
)
{\displaystyle dim(V+W)=dimV+dimW-dim(V\cap W)}
denn
n
+
k
+
m
=
n
+
k
+
n
+
m
−
n
{\displaystyle n+k+m=n+k+n+m-n}
.
Beweis (Dimensonsformel)
Sei
d
i
m
(
V
∩
W
)
=
n
;
d
i
m
V
=
n
+
k
;
d
i
m
W
=
n
+
m
{\displaystyle dim(V\cap W)=n;\,dimV=n+k;\,dimW=n+m}
und sei
{
b
1
,
…
,
b
n
}
{\displaystyle \{b_{1},\ldots ,b_{n}\}}
eine Basis von
V
∩
W
{\displaystyle V\cap W}
. Da
V
∩
W
{\displaystyle V\cap W}
Teilraum von
V
{\displaystyle V}
und Teilraum von
W
{\displaystyle W}
, existieren nach dem Basisergänzungssatz Vektoren
v
1
,
…
,
v
k
∈
V
{\displaystyle v_{1},\ldots ,v_{k}\in V}
und Vektoren
w
1
,
…
,
w
m
∈
W
{\displaystyle w_{1},\,\ldots ,w_{m}\in W}
, derart dass
{
b
1
,
…
,
b
n
,
v
1
,
…
,
v
k
}
{\displaystyle \{b_{1},\,\ldots ,b_{n},\,v_{1},\ldots ,v_{k}\}}
eine Basis von
V
{\displaystyle V}
und
{
b
1
,
…
,
b
n
.
w
1
,
…
w
m
}
{\displaystyle \{b_{1},\ldots ,b_{n}.\,w_{1},\ldots w_{m}\}}
eine Basis von
W
{\displaystyle W}
ist.
Wir zeigen nun, dass
B
=
{
b
1
,
…
,
b
n
,
v
1
,
…
v
k
,
w
1
,
…
w
m
}
{\displaystyle {\mathfrak {B}}=\{b_{1},\ldots ,b_{n},v_{1},\ldots v_{k},\,w_{1},\ldots w_{m}\}}
eine Basis von
V
+
W
{\displaystyle V+W}
ist. Als erstes zeigen wir, dass
B
{\displaystyle {\mathfrak {B}}}
ein Erzeugendensystem ist, dazu zeigen wir, dass ein beliebiger Vektor
a
∈
V
+
W
{\displaystyle a\in V+W}
sich als Linearkombination von Elementen aus
B
{\displaystyle {\mathfrak {B}}}
darstellen lässt.
Sei also
a
∈
V
+
W
{\displaystyle a\in V+W}
, damit gibt es ein
v
∈
V
;
w
∈
W
{\displaystyle v\in V;\,w\in W}
mit
a
=
v
+
w
{\displaystyle a=v+w}
. Da
v
{\displaystyle v}
eine Linearkombination der Basis
{
b
1
,
…
,
b
n
,
v
1
,
…
,
v
k
}
{\displaystyle \{b_{1},\ldots ,b_{n},\,v_{1},\ldots ,v_{k}\}}
von
V
{\displaystyle V}
ist, also
v
=
∑
i
=
1
n
β
i
b
i
+
∑
j
=
1
k
ρ
j
v
j
{\displaystyle v=\sum _{i=1}^{n}\beta _{i}b_{i}+\sum _{j=1}^{k}\rho _{j}v_{j}}
und
w
{\displaystyle w}
eine Linearkombination der Basis
{
b
1
,
…
,
b
n
,
w
1
,
…
,
w
m
}
{\displaystyle \{b_{1},\ldots ,b_{n},\,w_{1},\ldots ,w_{m}\}}
von
W
{\displaystyle W}
ist, also
w
=
∑
i
=
1
n
γ
i
b
i
+
∑
j
=
1
m
λ
j
w
j
{\displaystyle w=\sum _{i=1}^{n}\gamma _{i}b_{i}+\sum _{j=1}^{m}\lambda _{j}w_{j}}
, und damit gilt
:
a
=
∑
i
=
1
n
(
β
i
+
γ
i
)
b
i
+
∑
J
=
1
K
ρ
j
v
j
+
∑
l
=
1
m
λ
l
w
l
{\displaystyle \colon {\text{ }}a=\sum _{i=1}^{n}(\beta _{i}+\gamma _{i})b_{i}+\sum _{J=1}^{K}\rho _{j}v_{j}+\sum _{l=1}^{m}\lambda _{l}w_{l}}
.
Damit ist
a
{\displaystyle a}
Linearkombination von
{
b
1
,
…
,
b
n
,
v
1
,
…
,
v
k
,
w
1
,
…
,
w
m
}
{\displaystyle \{b_{1},\ldots ,b_{n},\,v_{1},\ldots ,v_{k},\,w_{1},\ldots ,w_{m}\}}
und
B
{\displaystyle {\mathfrak {B}}}
ein Erzeugendensystem von
V
+
W
{\displaystyle V+W}
.
Nun zeigen wir die lineare Unabhängigkeit von
B
{\displaystyle {\mathfrak {B}}}
Sei
∑
i
=
1
n
β
i
b
i
+
∑
j
=
1
k
ρ
j
v
j
+
∑
l
=
1
m
λ
l
w
l
=
0
{\displaystyle \sum _{i=1}^{n}\beta _{i}b_{i}+\sum _{j=1}^{k}\rho _{j}v_{j}+\sum _{l=1}^{m}\lambda _{l}w_{l}=0}
(**)
Wir setzen jetzt
v
=
∑
i
=
1
n
β
i
b
i
+
∑
j
=
1
k
ρ
j
v
j
{\displaystyle v=\sum _{i=1}^{n}\beta _{i}b_{i}+\sum _{j=1}^{k}\rho _{j}v_{j}}
. Dann gilt:
v
∈
V
{\displaystyle v\in V}
und wegen (**)
v
=
−
∑
l
=
1
m
λ
l
w
l
{\displaystyle v=-\sum _{l=1}^{m}\lambda _{l}w_{l}}
. Damit ist auch
v
∈
W
{\displaystyle v\in W}
, also
v
∈
V
∩
W
{\displaystyle v\in V\cap W}
.
Damit lässt sich
v
{\displaystyle v}
als Linearkombination der Basis
{
b
1
,
…
,
b
n
}
{\displaystyle \{b_{1},\ldots ,b_{n}\}}
von
V
∩
W
{\displaystyle V\cap W}
darstellen und es existieren
γ
1
,
…
,
γ
n
∈
K
{\displaystyle \gamma _{1},\ldots ,\gamma _{n}\in K}
, derart dass
v
=
∑
i
=
1
n
γ
i
b
i
{\displaystyle v=\sum _{i=1}^{n}\gamma _{i}b_{i}}
.
Nun gilt weiter
0
=
v
−
v
=
∑
i
=
1
n
(
β
i
−
γ
i
)
b
i
+
∑
j
=
1
k
ρ
j
v
j
{\displaystyle 0=v-v=\sum _{i=1}^{n}(\beta _{i}-\gamma _{i})b_{i}+\sum _{j=1}^{k}\rho _{j}v_{j}}
.
Weil
{
b
1
,
…
,
b
n
,
v
1
,
…
,
v
k
}
{\displaystyle \{b_{1},\ldots ,b_{n},\,v_{1},\ldots ,v_{k}\}}
eine Basis von
V
{\displaystyle V}
ist, sind die Vektoren linear unabhängig. Damit gilt
β
1
=
γ
1
,
β
2
=
γ
2
,
⋯
,
β
n
=
γ
n
,
und
ρ
1
=
ρ
2
=
⋯
=
ρ
k
=
0
{\displaystyle \beta _{1}=\gamma _{1},\,\beta _{2}=\gamma _{2},\cdots ,\beta _{n}=\gamma _{n},\,{\text{ und }}\rho _{1}=\rho _{2}=\cdots =\rho _{k}=0}
.
Also ist
∑
i
=
1
n
β
i
b
i
+
∑
l
=
1
m
λ
l
w
l
=
0
{\displaystyle \sum _{i=1}^{n}\beta _{i}b_{i}+\sum _{l=1}^{m}\lambda _{l}w_{l}=0}
. Da
{
b
1
,
…
,
b
n
,
w
1
,
…
,
w
m
}
{\displaystyle \{b_{1},\ldots ,b_{n},\,w_{1},\ldots ,w_{m}\}}
eine Basis von
W
{\displaystyle W}
ist und die Vektoren damit linear unabhängig sind, gilt
β
1
=
β
2
=
⋯
=
β
n
=
0
;
und
λ
1
=
λ
2
=
⋯
=
λ
m
=
0
{\displaystyle \beta _{1}=\beta _{2}=\,\cdots \,=\beta _{n}=0;{\text{ und }}\lambda _{1}=\lambda _{2}=\,\cdots \,=\lambda _{m}=0}
.
Damit sind alle Koeffizienten Null und die Vektoren
{
b
1
,
…
,
b
n
,
v
1
,
…
,
v
k
,
w
1
,
…
,
w
m
}
{\displaystyle \{b_{1},\ldots ,b_{n},\,v_{1},\ldots ,v_{k},\,w_{1},\ldots ,w_{m}\}}
sind linear unabhängig.
Damit gilt nun
d
i
m
(
V
+
W
)
=
n
+
k
+
m
;
d
i
m
(
V
∩
W
)
=
n
;
d
i
m
V
=
n
+
k
;
d
i
m
W
=
n
+
m
{\displaystyle dim(V+W)=n+k+m;\,dim(V\cap W)=n;\,dimV=n+k;dimW=n+m}
, also ist:
d
i
m
(
V
+
W
)
=
d
i
m
V
+
d
i
m
W
−
d
i
m
(
V
∩
W
)
{\displaystyle dim(V+W)=dimV+dimW-dim(V\cap W)}
denn
n
+
k
+
m
=
n
+
k
+
n
+
m
−
n
{\displaystyle n+k+m=n+k+n+m-n}
.
↑ https://lp.uni-goettingen.de/get/text/826
↑ http://www.math.tugraz.at/~ganster/lv_lineare_algebra/06_summen_und_direkte_summen.pdf