K6: Eigenschaften des Erwartungswertes
Diskrete Wahrscheinlichkeitsrechnung
Im vorherigen Paragrafen haben wir im Beispiel 2 gesehen dass die Erwartungswert der Summe zweier Zufallsvariablen sich die Summe der einzelnen Erwartungswerte gleicht. Der nächste Satz zeigt dass diese Beziehung allgemein gilt, und zeigt auch andere Eigenschaften des Erwartungswertes.
Es seien
X
{\displaystyle X}
und
Y
{\displaystyle Y}
Zufallsvariablen mit einer simultane Verteilung. Dann gilt:
(a)
E
(
X
+
Y
)
=
E
X
+
E
Y
{\displaystyle E(X+Y)=EX+EY}
,
(b)
E
(
a
X
+
b
)
=
a
E
X
+
b
{\displaystyle E(aX+b)=aEX+b}
, für alle
a
,
b
∈
R
{\displaystyle a,b\in \mathbb {R} }
,
(c) wenn
X
{\displaystyle X}
und
Y
{\displaystyle Y}
unabhängig sind, ist
E
X
Y
=
E
X
⋅
E
Y
{\displaystyle EXY=EX\cdot EY}
.
Beweis
(a)
E
(
X
+
Y
)
=
∑
x
∈
S
X
∑
y
∈
S
Y
(
x
+
y
)
P
(
X
=
x
,
Y
=
y
)
=
{\displaystyle E(X+Y)=\sum _{x\in S_{X}}\sum _{y\in S_{Y}}(x+y)\;P(X=x,\;Y=y)=}
=
∑
∑
x
P
(
X
=
x
,
Y
=
y
)
+
∑
∑
y
P
(
X
=
x
,
Y
=
y
)
=
E
X
+
E
Y
{\displaystyle =\sum \sum x\;P(X=x,\;Y=y)+\sum \sum y\;P(X=x,\;Y=y)=EX+EY}
.
(Merke auf dass wir hier sowohl
x
+
y
{\displaystyle x+y}
als
x
{\displaystyle x}
und
y
{\displaystyle y}
auffassen als Funktion von
(
x
,
y
)
{\displaystyle (x,y)}
und drei Mal den Satz 6.3.1 anwenden.)
(b)
E
(
a
X
+
b
)
=
∑
x
∈
S
X
(
a
x
+
b
)
P
(
X
=
x
)
=
∑
a
x
P
(
X
=
x
)
+
∑
b
P
(
X
=
x
)
=
{\displaystyle E(aX+b)=\sum _{x\in S_{X}}(ax+b)P(X=x)=\sum axP(X=x)+\sum bP(X=x)=}
=
a
∑
x
P
(
X
=
x
)
+
b
∑
P
(
X
=
x
)
=
a
E
X
+
b
{\displaystyle =a\sum xP(X=x)+b\sum P(X=x)=aEX+b}
.
(c)
E
X
Y
=
∑
x
∈
S
X
∑
y
∈
S
Y
x
y
P
(
X
=
x
,
Y
=
y
)
=
∑
∑
x
y
P
(
X
=
x
)
P
(
Y
=
y
)
=
{\displaystyle EXY=\sum _{x\in S_{X}}\sum _{y\in S_{Y}}xyP(X=x,\;Y=y)=\sum \sum xyP(X=x)P(Y=y)=}
=
∑
x
∈
S
X
x
P
(
X
=
x
)
∑
y
∈
S
Y
y
P
(
Y
=
y
)
=
E
X
⋅
E
Y
{\displaystyle =\sum _{x\in S_{X}}xP(X=x)\;\sum _{y\in S_{Y}}yP(Y=y)=EX\cdot EY}
.
Mit Hilfe des vorigen Satzes können wir auf einfache Weise die Erwartung der Binomialverteilung und der hypergeometrische Verteilung bestimmen.
Es sei
X
B
(
n
,
p
)
{\displaystyle X\ B(n,p)}
-Verteilt. Betrachte die
n
{\displaystyle n}
Bernoulli-Versuche
X
i
{\displaystyle X_{i}}
mit Erfolgswahrscheinlichkeit
p
{\displaystyle p}
, also
P
(
X
i
=
1
)
=
1
−
P
(
X
i
=
0
)
=
p
{\displaystyle P(X_{i}=1)=1-P(X_{i}=0)=p}
. Nenne
Y
=
∑
i
=
1
n
X
i
.
{\displaystyle Y=\sum _{i=1}^{n}X_{i}.}
Die Zufallvariablen
X
{\displaystyle X}
und
Y
{\displaystyle Y}
haben dieselbe Verteilung und also auch dieselbe Erwartung.
Folglich ist:
E
X
=
E
Y
=
∑
i
=
1
n
E
X
i
=
∑
i
=
1
n
p
=
n
p
{\displaystyle EX=EY=\sum _{i=1}^{n}EX_{i}=\sum _{i=1}^{n}p=np}
.
Es sei
X
{\displaystyle X}
hypergeometrisch Verteilt mit Parametern
M
,
N
{\displaystyle M,N}
und
n
{\displaystyle n}
. Wir betrachten eine aselekte Stichprobe von Umfang
n
{\displaystyle n}
ohne Zurücklegung aus einer Urne mit
M
{\displaystyle M}
roten und
N
−
M
{\displaystyle N-M}
weißen Kugeln. Wir definieren
X
i
=
1
{\displaystyle X_{i}=1}
wenn die
i
.
{\displaystyle i.}
Ziehung eine rote Kugel aufweist und 0 im Falle einer weißen. Jede der Zufallsvariablen
(
X
i
)
{\displaystyle (X_{i})}
ist wieder eine Alternative mit Parameter
p
=
M
/
N
{\displaystyle p=M/N}
. Nenne wieder:
Y
=
∑
i
=
1
n
X
i
,
{\displaystyle Y=\sum _{i=1}^{n}X_{i},}
dann haben
X
{\displaystyle X}
und
Y
{\displaystyle Y}
dieselbe Verteilung also auch dieselbe Erwartung. Folglich ist:
E
X
=
E
Y
=
∑
i
=
1
n
E
X
i
=
∑
i
=
1
n
p
=
n
M
N
{\displaystyle EX=EY=\sum _{i=1}^{n}EX_{i}=\sum _{i=1}^{n}p=n{\frac {M}{N}}}
.
Merke auf dass die Zufallsvariablen
X
1
,
…
,
X
n
{\displaystyle X_{1},\ldots ,X_{n}}
in diesem Fall nicht unabhängig sind.